Shortcuts

随机调整大小裁剪

class torchvision.transforms.RandomResizedCrop(size, scale=(0.08, 1.0), ratio=(0.75, 1.3333333333333333), interpolation=InterpolationMode.BILINEAR, antialias: Optional[bool] = True)[source]

裁剪图像的随机部分并将其调整为给定大小。

如果图像是 torch Tensor,则期望具有 […, H, W] 形状,其中 … 表示任意数量的前导维度

对原始图像进行裁剪:裁剪区域具有随机面积(H * W)和随机宽高比。最后将此裁剪区域调整为给定大小。这种方法通常用于训练Inception网络。

Parameters:
  • size (intsequence) –

    裁剪的预期输出大小,针对每个边缘。如果 size 是一个整数而不是像 (h, w) 这样的序列,则会生成一个正方形输出大小 (size, size)。如果提供一个长度为 1 的序列,它将被解释为 (size[0], size[0])。

    注意

    在 torchscript 模式下,不支持将 size 作为单个整数,请使用长度为 1 的序列:[size, ]

  • scale (tuple of python:float) – 指定裁剪随机区域的下限和上限,在调整大小之前。该比例是相对于原始图像的面积定义的。

  • ratio (python:float 的元组) – 在调整大小之前,裁剪的随机宽高比的下限和上限。

  • 插值 (InterpolationMode) – 由torchvision.transforms.InterpolationMode定义的所需插值枚举。默认值为InterpolationMode.BILINEAR。 如果输入是张量,则仅支持InterpolationMode.NEARESTInterpolationMode.NEAREST_EXACTInterpolationMode.BILINEARInterpolationMode.BICUBIC。 也接受相应的Pillow整数常量,例如PIL.Image.BILINEAR

  • antialias (bool, optional) –

    是否应用抗锯齿。 它只影响具有双线性或双三次模式的张量,否则会被忽略:在PIL图像上,双线性或双三次模式总是应用抗锯齿;在其他模式(对于PIL图像和张量)上,抗锯齿没有意义,此参数会被忽略。 可能的值为:

    • True (默认): 将对双线性或双三次模式应用抗锯齿。 其他模式不受影响。这可能是你想要使用的。

    • False: 不会对任何模式的张量应用抗锯齿。PIL 图像在双线性或双三次模式下仍然应用抗锯齿,因为 PIL不支持无抗锯齿。

    • None: 对于张量等同于False,对于 PIL图像等同于True。此值存在是为了兼容旧版本,除非你确实知道自己在做什么,否则你可能不想使用它。

    默认值在v0.17版本中从None更改为True,以使PIL和Tensor后端保持一致。

使用 RandomResizedCrop 的示例:

开始使用 transforms v2

Getting started with transforms v2

变换的图示

Illustration of transforms

如何使用CutMix和MixUp

How to use CutMix and MixUp

如何编写自己的v2转换

How to write your own v2 transforms
forward(img)[source]
Parameters:

img (PIL ImageTensor) – 需要裁剪和调整大小的图像。

Returns:

随机裁剪和调整大小的图像。

Return type:

PIL 图像或张量

static get_params(img: Tensor, scale: List[float], ratio: List[float]) Tuple[int, int, int, int][source]

获取用于随机大小裁剪的crop参数。

Parameters:
  • img (PIL ImageTensor) – 输入图像。

  • scale (list) – 裁剪原始尺寸的比例范围

  • ratio (list) – 原始宽高比裁剪的宽高比范围

Returns:

传递给 crop 的参数 (i, j, h, w) 用于随机大小的裁剪。

Return type:

tuple