Shortcuts

设置梯度启用

class torch.autograd.grad_mode.set_grad_enabled(mode)[源代码]

上下文管理器,用于开启或关闭梯度计算。

set_grad_enabled 将根据其参数 mode 启用或禁用梯度。 它可以作为上下文管理器或作为函数使用。

此上下文管理器是线程本地的;它不会影响其他线程中的计算。

Parameters

模式 (布尔值) – 标志是否启用梯度 (True),或禁用 (False)。这可以用于有条件地启用 梯度。

注意

set_grad_enabled 是几种可以在本地启用或禁用梯度的机制之一,有关它们如何比较的更多信息,请参见 本地禁用梯度计算

注意

此API不适用于前向模式自动微分

Example::
>>> x = torch.tensor([1.], requires_grad=True)
>>> is_train = False
>>> with torch.set_grad_enabled(is_train):
...     y = x * 2
>>> y.requires_grad
False
>>> _ = torch.set_grad_enabled(True)
>>> y = x * 2
>>> y.requires_grad
True
>>> _ = torch.set_grad_enabled(False)
>>> y = x * 2
>>> y.requires_grad
False
clone()[源代码]

创建此类的副本

Return type

设置梯度启用

优云智算