Shortcuts

torch.Tensor.resize_

Tensor.resize_(*sizes, memory_format=torch.contiguous_format) 张量

self 张量调整为指定大小。如果元素数量大于当前存储大小,则底层存储将调整为适应新的元素数量。如果元素数量较小,底层存储不会改变。现有元素将被保留,但任何新内存将未初始化。

警告

这是一个低级方法。存储被重新解释为C连续的,忽略当前的步幅(除非目标大小等于当前大小,在这种情况下张量保持不变)。对于大多数用途,您将更愿意使用view(),它会检查连续性,或者reshape(),它会在需要时复制数据。要使用自定义步幅就地更改大小,请参阅set_()

注意

如果 torch.use_deterministic_algorithms()torch.utils.deterministic.fill_uninitialized_memory 都设置为 True,新元素将被初始化以防止在使用结果作为操作输入时出现不确定性行为。浮点数和复数值被设置为 NaN,整数值被设置为最大值。

Parameters
  • sizes (torch.Sizeint...) – 所需的大小

  • memory_format (torch.memory_format, 可选) – 所需的内存格式。默认值:torch.contiguous_format。注意,如果 self.size()sizes 匹配,则 self 的内存格式将不受影响。

示例:

>>> x = torch.tensor([[1, 2], [3, 4], [5, 6]])
>>> x.resize_(2, 2)
tensor([[ 1,  2],
        [ 3,  4]])
优云智算