Shortcuts

嵌入

class torch.ao.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)[源代码]

一个使用量化打包权重作为输入的量化嵌入模块。 我们采用了与torch.nn.Embedding相同的接口,请参阅 https://pytorch.org/docs/stable/nn.html#torch.nn.Embedding获取文档。

类似于Embedding,属性将在模块创建时随机初始化,并将在之后被覆盖

Variables

权重 (张量) – 模块的不可学习的量化权重,形状为 (num_embeddings,embedding_dim)(\text{num\_embeddings}, \text{embedding\_dim})

Examples::
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12])
classmethod from_float(mod)[源代码]

从浮点模块创建一个量化嵌入模块

Parameters

mod (模块) – 一个浮点模块,由 torch.ao.quantization 工具生成或由用户提供

优云智算