Shortcuts

自动增强

class torchvision.transforms.v2.AutoAugment(policy: AutoAugmentPolicy = AutoAugmentPolicy.IMAGENET, interpolation: Union[InterpolationMode, int] = InterpolationMode.NEAREST, fill: Union[int, float, Sequence[int], Sequence[float], None, Dict[Union[Type, str], Optional[Union[int, float, Sequence[int], Sequence[float]]]]] = None)[source]

基于“AutoAugment: Learning Augmentation Strategies from Data”的AutoAugment数据增强方法。

此转换仅适用于图像和视频。

如果输入是torch.Tensor,它应该是torch.uint8类型,并且期望具有[…, 1或3, H, W]形状,其中…表示任意数量的前导维度。如果img是PIL图像,则期望其模式为“L”或“RGB”。

Parameters:
  • policy (AutoAugmentPolicy, 可选) – 由torchvision.transforms.autoaugment.AutoAugmentPolicy定义的期望策略枚举。默认值为AutoAugmentPolicy.IMAGENET

  • 插值 (InterpolationMode, 可选) – 由torchvision.transforms.InterpolationMode定义的所需插值枚举。默认值为InterpolationMode.NEAREST。如果输入是张量,则仅支持InterpolationMode.NEARESTInterpolationMode.BILINEAR

  • fill (sequencenumber, 可选) – 用于变换图像外部区域的像素填充值。如果给定一个数字,则该值将分别用于所有波段。

使用AutoAugment的示例:

变换的图示

Illustration of transforms
forward(*inputs: Any) Any[source]

定义每次调用时执行的计算。

应该由所有子类覆盖。

注意

尽管前向传递的配方需要在此函数内定义,但之后应该调用Module实例而不是这个,因为前者负责运行已注册的钩子,而后者则默默地忽略它们。

static get_params(transform_num: int) Tuple[int, Tensor, Tensor][source]

获取自动增强变换的参数

Returns:

autoaugment 转换所需的参数