Shortcuts

torch.nn.utils.clip_grad_norm

torch.nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2.0, error_if_nonfinite=False, foreach=None)[源代码]

裁剪可迭代参数的梯度范数。

警告

此方法现在已被弃用,取而代之的是 torch.nn.utils.clip_grad_norm_()

Return type

张量

优云智算