Shortcuts

Softmax

class torch.nn.Softmax(dim=None)[源代码]

将Softmax函数应用于n维输入张量。

重新缩放它们,使得n维输出张量的元素位于范围[0,1]内,并且总和为1。

Softmax 定义为:

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

当输入张量是稀疏张量时,未指定的值将被视为 -inf

Shape:
  • 输入:()(*) 其中 * 表示任意数量的额外维度

  • 输出: ()(*), 与输入形状相同

Returns

与输入具有相同维度和形状的张量,其值在范围 [0, 1] 内

Parameters

dim (int) – 一个将计算Softmax的维度(因此沿该维度的每个切片将总和为1)。

Return type

注意

此模块不直接与NLLLoss一起工作, NLLLoss期望在Softmax和自身之间计算Log。 请改用LogSoftmax(它更快且具有更好的数值特性)。

示例:

>>> m = nn.Softmax(dim=1)
>>> input = torch.randn(2, 3)
>>> output = m(input)
优云智算