Shortcuts

torch.Tensor.view

Tensor.view(*shape) 张量

返回一个与 self 张量具有相同数据但形状不同的新张量。

返回的张量共享相同的数据并且必须具有相同数量的元素,但可能具有不同的尺寸。对于一个张量来说,要进行视图操作,新的视图尺寸必须与其原始尺寸和步幅兼容,即每个新的视图维度必须要么是原始维度的一个子空间,要么仅跨越原始维度 d,d+1,,d+kd, d+1, \dots, d+k 满足以下类似连续性的条件,即 i=d,,d+k1\forall i = d, \dots, d+k-1

stride[i]=stride[i+1]×size[i+1]\text{stride}[i] = \text{stride}[i+1] \times \text{size}[i+1]

否则,将无法在不复制的情况下将 self 张量视为 shape (例如,通过 contiguous())。当不清楚是否可以执行 view() 时,建议使用 reshape(),它 如果形状兼容则返回视图,否则复制(相当于调用 contiguous())。

Parameters

形状 (torch.Size整数...) – 所需的大小

示例:

>>> x = torch.randn(4, 4)
>>> x.size()
torch.Size([4, 4])
>>> y = x.view(16)
>>> y.size()
torch.Size([16])
>>> z = x.view(-1, 8)  # 大小 -1 是从其他维度推断出来的
>>> z.size()
torch.Size([2, 8])

>>> a = torch.randn(1, 2, 3, 4)
>>> a.size()
torch.Size([1, 2, 3, 4])
>>> b = a.transpose(1, 2)  # 交换第二和第三维度
>>> b.size()
torch.Size([1, 3, 2, 4])
>>> c = a.view(1, 3, 2, 4)  # 不改变内存中的张量布局
>>> c.size()
torch.Size([1, 3, 2, 4])
>>> torch.equal(b, c)
False
view(dtype) 张量

返回一个与 self 张量具有相同数据但具有不同 dtype 的新张量。

如果dtype的元素大小与self.dtype的不同,那么输出的最后一个维度的大小将按比例缩放。例如,如果dtype的元素大小是self.dtype的两倍,那么self的最后一个维度中的每对元素将被合并,并且输出的最后一个维度的大小将是self的一半。如果dtype的元素大小是self.dtype的一半,那么self的最后一个维度中的每个元素将被分成两部分,并且输出的最后一个维度的大小将是self的两倍。为了实现这一点,以下条件必须为真:

  • self.dim() 必须大于 0。

  • self.stride(-1) 必须为 1。

此外,如果dtype的元素大小大于 self.dtype,则以下条件也必须为真:

  • self.size(-1) 必须能被数据类型元素大小之间的比率整除。

  • self.storage_offset() 必须能被数据类型元素大小之间的比率整除。

  • 所有维度(除最后一个维度外)的步幅必须能被dtypes元素大小之间的比率整除。

如果上述任何条件未满足,则会抛出错误。

警告

此重载不受TorchScript支持,在TorchScript程序中使用它会导致未定义行为。

Parameters

dtype (torch.dtype) – 所需的dtype

示例:

>>> x = torch.randn(4, 4)
>>> x
tensor([[ 0.9482, -0.0310,  1.4999, -0.5316],
        [-0.1520,  0.7472,  0.5617, -0.8649],
        [-2.4724, -0.0334, -0.2976, -0.8499],
        [-0.2109,  1.9913, -0.9607, -0.6123]])
>>> x.dtype
torch.float32

>>> y = x.view(torch.int32)
>>> y
tensor([[ 1064483442, -1124191867,  1069546515, -1089989247],
        [-1105482831,  1061112040,  1057999968, -1084397505],
        [-1071760287, -1123489973, -1097310419, -1084649136],
        [-1101533110,  1073668768, -1082790149, -1088634448]],
    dtype=torch.int32)
>>> y[0, 0] = 1000000000
>>> x
tensor([[ 0.0047, -0.0310,  1.4999, -0.5316],
        [-0.1520,  0.7472,  0.5617, -0.8649],
        [-2.4724, -0.0334, -0.2976, -0.8499],
        [-0.2109,  1.9913, -0.9607, -0.6123]])

>>> x.view(torch.cfloat)
tensor([[ 0.0047-0.0310j,  1.4999-0.5316j],
        [-0.1520+0.7472j,  0.5617-0.8649j],
        [-2.4724-0.0334j, -0.2976-0.8499j],
        [-0.2109+1.9913j, -0.9607-0.6123j]])
>>> x.view(torch.cfloat).size()
torch.Size([4, 2])

>>> x.view(torch.uint8)
tensor([[  0, 202, 154,  59, 182, 243, 253, 188, 185, 252, 191,  63, 240,  22,
           8, 191],
        [227, 165,  27, 190, 128,  72,  63,  63, 146, 203,  15,  63,  22, 106,
          93, 191],
        [205,  59,  30, 192, 112, 206,   8, 189,   7,  95, 152, 190,  12, 147,
          89, 191],
        [ 43, 246,  87, 190, 235, 226, 254,  63, 111, 240, 117, 191, 177, 191,
          28, 191]], dtype=torch.uint8)
>>> x.view(torch.uint8).size()
torch.Size([4, 16])
优云智算