SELU¶
- class torch.nn.SELU(inplace=False)[源代码]¶
逐元素应用SELU函数。
其中 和 。
警告
在使用
kaiming_normal或kaiming_normal_进行初始化时, 应使用nonlinearity='linear'而不是nonlinearity='selu'以获得 自归一化神经网络。 更多信息请参见torch.nn.init.calculate_gain()。更多细节可以在论文 Self-Normalizing Neural Networks 中找到。
- Parameters
inplace (bool, 可选) – 可以选择就地执行操作。默认值:
False
- Shape:
输入:,其中 表示任意数量的维度。
输出: , 与输入形状相同。
示例:
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)