Shortcuts

LnStructured

class torch.nn.utils.prune.LnStructured(amount, n, dim=-1)[源代码]

基于其 Ln-范数修剪张量中的整个(当前未修剪的)通道。

Parameters
  • amount (intfloat) – 要剪枝的通道数量。 如果 float,应在 0.0 到 1.0 之间,并表示要剪枝的参数比例。如果 int,它表示要剪枝的参数的绝对数量。

  • n (int, float, inf, -inf, 'fro', 'nuc') – 参见 torch.norm() 中参数 p 的有效条目文档。

  • dim (int, 可选) – 定义要剪枝的通道沿着的维度索引。默认值:-1。

classmethod apply(module, name, amount, n, dim, importance_scores=None)[源代码]

动态添加剪枝和重新参数化张量。

添加前向预钩子,以实现动态剪枝并 在原始张量和剪枝掩码的基础上重新参数化张量。

Parameters
  • 模块 (nn.Module) – 包含要剪枝的张量的模块

  • 名称 (字符串) – 在 模块 中进行剪枝操作的参数名称。

  • amount (intfloat) – 要剪枝的参数数量。 如果 float,应在 0.0 和 1.0 之间,并表示要剪枝的参数比例。如果 int,它表示要剪枝的参数的绝对数量。

  • n (int, float, inf, -inf, 'fro', 'nuc') – 参见 torch.norm() 中参数 p 的有效条目文档。

  • dim (int) – 要定义剪枝通道的维度索引。

  • importance_scores (torch.Tensor) – 重要性分数的张量(与模块参数形状相同),用于计算剪枝的掩码。 该张量中的值表示被剪枝参数中相应元素的重要性。 如果未指定或为None,则将使用模块参数本身。

apply_mask(module)

简单处理待剪枝参数与生成的掩码之间的乘法。

从模块中获取掩码和原始张量,并返回张量的剪枝版本。

Parameters

模块 (nn.Module) – 包含要剪枝的张量的模块

Returns

输入张量的剪枝版本

Return type

修剪的张量(torch.Tensor

compute_mask(t, default_mask)[源代码]

计算并返回输入张量 t 的掩码。

从基础的 default_mask(如果张量尚未被剪枝,则应为全1的掩码)开始,生成一个掩码以应用于 default_mask 之上,通过将指定维度上具有最低 Ln-范数的通道置零。

Parameters
  • t (torch.Tensor) – 表示要剪枝的参数的张量

  • default_mask (torch.Tensor) – 来自先前剪枝迭代的基mask,需要在应用新mask后予以保留。与t具有相同的维度。

Returns

要应用于 t 的掩码,与 t 具有相同的维度

Return type

掩码 (torch.Tensor)

Raises

IndexError – 如果 self.dim >= len(t.shape)

prune(t, default_mask=None, importance_scores=None)

计算并返回输入张量 t 的修剪版本。

根据compute_mask()中指定的剪枝规则。

Parameters
  • t (torch.Tensor) – 要剪枝的张量(与 default_mask 具有相同的维度)。

  • importance_scores (torch.Tensor) – 重要性分数的张量(与t形状相同),用于计算剪枝的掩码t。 该张量中的值表示正在剪枝的t中相应元素的重要性。 如果未指定或为None,则将使用张量t

  • default_mask (torch.Tensor, 可选) – 来自先前剪枝迭代的掩码(如果有)。在确定剪枝应作用于张量的哪一部分时需要考虑。如果为 None,则默认为全为 1 的掩码。

Returns

修剪后的张量版本 t

remove(module)

从模块中移除修剪重参数化。

名为 name 的参数永久地被剪枝, 并且名为 name+'_orig' 的参数从参数列表中移除。 同样,名为 name+'_mask' 的缓冲区从缓冲区中移除。

注意

剪枝本身不会被撤销或逆转!

优云智算