Softmax¶
- class torch.nn.Softmax(dim=None)[源代码]¶
将Softmax函数应用于n维输入张量。
重新缩放它们,使得n维输出张量的元素位于范围[0,1]内,并且总和为1。
Softmax 定义为:
当输入张量是稀疏张量时,未指定的值将被视为
-inf。- Shape:
输入: 其中 * 表示任意数量的额外维度
输出: , 与输入形状相同
- Returns
与输入具有相同维度和形状的张量,其值在范围 [0, 1] 内
- Parameters
dim (int) – 一个将计算Softmax的维度(因此沿该维度的每个切片将总和为1)。
- Return type
无
注意
此模块不直接与NLLLoss一起工作, NLLLoss期望在Softmax和自身之间计算Log。 请改用LogSoftmax(它更快且具有更好的数值特性)。
示例:
>>> m = nn.Softmax(dim=1) >>> input = torch.randn(2, 3) >>> output = m(input)