Shortcuts

随机非结构化

class torch.nn.utils.prune.RandomUnstructured(amount)[源代码]

随机修剪张量中的(当前未修剪的)单元。

Parameters
  • 名称 (字符串) – 在 模块 中进行剪枝操作的参数名称。

  • amount (intfloat) – 要剪枝的参数数量。 如果 float,应在 0.0 到 1.0 之间,并表示要剪枝的参数比例。如果 int,它表示要剪枝的参数的绝对数量。

classmethod apply(module, name, amount)[源代码]

动态添加剪枝和重新参数化张量。

添加前向预钩子,以实现动态剪枝并 在原始张量和剪枝掩码的基础上重新参数化张量。

Parameters
  • 模块 (nn.Module) – 包含要剪枝的张量的模块

  • 名称 (字符串) – 在 模块 中进行剪枝操作的参数名称。

  • amount (intfloat) – 要剪枝的参数数量。 如果 float,应在 0.0 和 1.0 之间,并表示要剪枝的参数比例。如果 int,它表示要剪枝的参数的绝对数量。

apply_mask(module)

简单处理待剪枝参数与生成的掩码之间的乘法。

从模块中获取掩码和原始张量,并返回张量的剪枝版本。

Parameters

模块 (nn.Module) – 包含要剪枝的张量的模块

Returns

输入张量的剪枝版本

Return type

修剪的张量(torch.Tensor

prune(t, default_mask=None, importance_scores=None)

计算并返回输入张量 t 的修剪版本。

根据compute_mask()中指定的剪枝规则。

Parameters
  • t (torch.Tensor) – 要剪枝的张量(与 default_mask 具有相同的维度)。

  • importance_scores (torch.Tensor) – 重要性分数的张量(与t形状相同),用于计算剪枝的掩码t。 该张量中的值表示正在剪枝的t中相应元素的重要性。 如果未指定或为None,则将使用张量t

  • default_mask (torch.Tensor, 可选) – 来自先前剪枝迭代的掩码(如果有)。在确定剪枝应作用于张量的哪一部分时需要考虑。如果为 None,则默认为全为 1 的掩码。

Returns

修剪后的张量版本 t

remove(module)

从模块中移除修剪重参数化。

名为 name 的参数永久地被剪枝, 并且名为 name+'_orig' 的参数从参数列表中移除。 同样,名为 name+'_mask' 的缓冲区从缓冲区中移除。

注意

剪枝本身不会被撤销或逆转!

优云智算