Shortcuts

LinearReLU

class torch.ao.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)[源代码]

一个由线性模块和ReLU模块融合而成的LinearReLU模块,附带有用于权重的FakeQuantize模块,用于量化感知训练。

我们采用与torch.nn.Linear相同的接口。

类似于torch.ao.nn.intrinsic.LinearReLU,带有初始化为默认值的FakeQuantize模块。

Variables

权重 (torch.Tensor) – 权重的伪量化模块

示例:

>>> m = nn.qat.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])
优云智算