Shortcuts

torch.Tensor.scatter_

Tensor.scatter_(dim, index, src, *, reduce=None) 张量

将张量 src 中的所有值写入到 self 中,索引由 index 张量指定。对于 src 中的每个值,其输出索引由其在 src 中的索引指定,对于 dimension != dim,并且由 index 中的相应值指定,对于 dimension = dim

对于一个3维张量,self 被更新为:

self[index[i][j][k]][j][k] = src[i][j][k]  # 如果 dim == 0
self[i][index[i][j][k]][k] = src[i][j][k]  # 如果 dim == 1
self[i][j][index[i][j][k]] = src[i][j][k]  # 如果 dim == 2

这是在gather()中描述的方式的反向操作。

self, indexsrc(如果它是一个张量)应该具有相同的维度数量。还要求对于所有维度 dindex.size(d) <= src.size(d),并且对于所有维度 d != dimindex.size(d) <= self.size(d)。 注意,indexsrc 不会进行广播。

此外,对于gather()index的值必须在0self.size(dim) - 1之间(包括两端)。

警告

当索引不唯一时,行为是不确定的(将从src中任意选择一个值),并且梯度将不正确(梯度将传播到源中所有对应于相同索引的位置)!

注意

反向传播仅在 src.shape == index.shape 时实现。

此外,接受一个可选的 reduce 参数,该参数允许指定一个可选的归约操作,该操作应用于张量 src 中的所有值到 self 中指定的索引处。对于 src 中的每个值,归约操作应用于 self 中的一个索引,该索引由 src 中的索引指定,对于 dimension != dim,并且由 index 中的相应值指定,对于 dimension = dim

给定一个3-D张量并使用乘法操作进行缩减,self 被更新为:

self[index[i][j][k]][j][k] *= src[i][j][k]  # 如果 dim == 0
self[i][index[i][j][k]][k] *= src[i][j][k]  # 如果 dim == 1
self[i][j][index[i][j][k]] *= src[i][j][k]  # 如果 dim == 2

使用加法操作进行归约与使用 scatter_add_()相同。

警告

使用 Tensor src 的 reduce 参数已被弃用,并将在未来的 PyTorch 版本中移除。请改用 scatter_reduce_() 以获得更多归约选项。

Parameters
  • dim (int) – 要沿其索引的轴

  • 索引 (LongTensor) – 要分散的元素的索引,可以是空的 或者与 src 具有相同的维度。当为空时,操作 返回 self 不变。

  • src (张量) – 要分散的源元素。

Keyword Arguments

reduce (str, 可选) – 要应用的归约操作,可以是 'add''multiply'

示例:

>>> src = torch.arange(1, 11).reshape((2, 5))
>>> src
tensor([[ 1,  2,  3,  4,  5],
        [ 6,  7,  8,  9, 10]])
>>> index = torch.tensor([[0, 1, 2, 0]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_(0, index, src)
tensor([[1, 0, 0, 4, 0],
        [0, 2, 0, 0, 0],
        [0, 0, 3, 0, 0]])
>>> index = torch.tensor([[0, 1, 2], [0, 1, 4]])
>>> torch.zeros(3, 5, dtype=src.dtype).scatter_(1, index, src)
tensor([[1, 2, 3, 0, 0],
        [6, 7, 0, 0, 8],
        [0, 0, 0, 0, 0]])

>>> torch.full((2, 4), 2.).scatter_(1, torch.tensor([[2], [3]]),
...            1.23, reduce='multiply')
tensor([[2.0000, 2.0000, 2.4600, 2.0000],
        [2.0000, 2.0000, 2.0000, 2.4600]])
>>> torch.full((2, 4), 2.).scatter_(1, torch.tensor([[2], [3]]),
...            1.23, reduce='add')
tensor([[2.0000, 2.0000, 3.2300, 2.0000],
        [2.0000, 2.0000, 2.0000, 3.2300]])
scatter_(dim, index, value, *, reduce=None) Tensor:

value的值写入self中,索引由index张量指定。此操作等同于之前的版本,其中src张量完全填充了value

Parameters
  • dim (int) – 要沿其索引的轴

  • 索引 (LongTensor) – 要分散的元素的索引,可以是空的 或者与 src 具有相同的维度。当为空时,操作 返回 self 不变。

  • (标量) – 要分散的值。

Keyword Arguments

reduce (str, 可选) – 要应用的归约操作,可以是 'add''multiply'

示例:

>>> index = torch.tensor([[0, 1]])
>>> value = 2
>>> torch.zeros(3, 5).scatter_(0, index, value)
tensor([[2., 0., 0., 0., 0.],
        [0., 2., 0., 0., 0.],
        [0., 0., 0., 0., 0.]])
优云智算