torch.nn.utils.clip_grad_value_¶ torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码]¶ 将可迭代参数的梯度裁剪到指定值。 梯度是就地修改的。 Parameters 参数 (可迭代[Tensor] 或 Tensor) – 一个包含Tensor的可迭代对象或单个Tensor,其梯度将被归一化 clip_value (float) – 梯度的最大允许值。 梯度在范围内被裁剪 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right][-clip_value,clip_value] foreach (bool) – 使用基于foreach的更快的实现 如果 None,则为CUDA和CPU原生张量使用foreach实现, 并静默回退到其他设备类型的慢速实现。 默认值:None