Shortcuts

torch.autograd.graph.Node.register_hook

abstract Node.register_hook(fn)[源代码]

注册一个反向钩子。

每次计算与节点相关的梯度时,都会调用该钩子。钩子应具有以下签名:

hook(grad_inputs: Tuple[Tensor], grad_outputs: Tuple[Tensor]) -> Tuple[Tensor]  

钩子不应修改其参数,但可以选择返回一个新的梯度,该梯度将代替grad_inputs使用。

此函数返回一个带有方法 handle.remove() 的句柄,该方法从模块中移除钩子。

注意

有关此钩子何时执行以及其执行顺序相对于其他钩子的更多信息,请参见反向钩子执行

示例:

>>> import torch
>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.clone()
>>> assert isinstance(b.grad_fn, torch.autograd.graph.Node)
>>> handle = b.grad_fn.register_hook(lambda gI, gO: (gO[0] * 2,))
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([2., 2., 2.])
>>> handle.remove() # 移除钩子
>>> a.grad = None
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([1., 1., 1.])
Return type

可移除句柄

优云智算