Shortcuts

BasePruningMethod

class torch.nn.utils.prune.BasePruningMethod[源代码]

用于创建新剪枝技术的抽象基类。

提供了一个用于自定义的框架,需要重写诸如compute_mask()apply()等方法。

classmethod apply(module, name, *args, importance_scores=None, **kwargs)[源代码]

动态添加剪枝和重新参数化张量。

添加前向预钩子,以实现动态剪枝并 在原始张量和剪枝掩码的基础上重新参数化张量。

Parameters
  • 模块 (nn.Module) – 包含要剪枝的张量的模块

  • 名称 (字符串) – 在 模块 中进行剪枝操作的参数名称。

  • args – 传递给BasePruningMethod子类的参数

  • importance_scores (torch.Tensor) – 重要性分数的张量(与模块参数形状相同),用于计算剪枝的掩码。 该张量中的值表示被剪枝参数中相应元素的重要性。 如果未指定或为None,则将使用参数本身。

  • kwargs – 传递给BasePruningMethod子类的关键字参数

apply_mask(module)[源代码]

简单处理待剪枝参数与生成的掩码之间的乘法。

从模块中获取掩码和原始张量,并返回张量的剪枝版本。

Parameters

模块 (nn.Module) – 包含要剪枝的张量的模块

Returns

输入张量的剪枝版本

Return type

修剪的张量(torch.Tensor

abstract compute_mask(t, default_mask)[源代码]

计算并返回输入张量 t 的掩码。

从基础的 default_mask(如果张量尚未被剪枝,则应为全1的掩码)开始,根据特定的剪枝方法生成一个随机掩码,并将其应用于 default_mask 之上。

Parameters
  • t (torch.Tensor) – 表示重要性分数的张量

  • 修剪。参数为)–

  • default_mask (torch.Tensor) – 来自先前剪枝的基础掩码

  • 迭代次数

  • 在新面具后需要被尊重)–

  • t. (应用于。与) –

Returns

要应用于 t 的掩码,与 t 具有相同的维度

Return type

掩码 (torch.Tensor)

prune(t, default_mask=None, importance_scores=None)[源代码]

计算并返回输入张量 t 的修剪版本。

根据compute_mask()中指定的剪枝规则。

Parameters
  • t (torch.Tensor) – 要剪枝的张量(与 default_mask 具有相同的维度)。

  • importance_scores (torch.Tensor) – 重要性分数的张量(与t形状相同),用于计算剪枝的掩码t。 该张量中的值表示正在剪枝的t中相应元素的重要性。 如果未指定或为None,则将使用张量t

  • default_mask (torch.Tensor, 可选) – 来自先前剪枝迭代的掩码(如果有)。在确定剪枝应作用于张量的哪一部分时需要考虑。如果为 None,则默认为全为 1 的掩码。

Returns

修剪后的张量版本 t

remove(module)[源代码]

从模块中移除修剪重参数化。

名为 name 的参数永久地被剪枝, 并且名为 name+'_orig' 的参数从参数列表中移除。 同样,名为 name+'_mask' 的缓冲区从缓冲区中移除。

注意

剪枝本身不会被撤销或逆转!

优云智算