Shortcuts

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码]

将可迭代参数的梯度裁剪到指定值。

梯度是就地修改的。

Parameters
  • 参数 (可迭代[Tensor] 或 Tensor) – 一个包含Tensor的可迭代对象或单个Tensor,其梯度将被归一化

  • clip_value (float) – 梯度的最大允许值。 梯度在范围内被裁剪 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]

  • foreach (bool) – 使用基于foreach的更快的实现 如果 None,则为CUDA和CPU原生张量使用foreach实现, 并静默回退到其他设备类型的慢速实现。 默认值:None

优云智算