speechbrain.nnet.pooling 模块
实现池化的库。
- Authors
Titouan Parcollet 2020
Mirco Ravanelli 2020
纳曼·达瓦拉塔巴德 2020
钟建元 2020
Sarthak Yadav 2022
Ha Nguyen 2023
摘要
类:
该类实现了自适应平均池化。 |
|
此函数实现了自注意力池化 (https://arxiv.org/abs/2008.01077)。 |
|
该类实现了一个可学习的高斯低通池化 |
|
此函数实现了输入张量的一维池化。 |
|
该函数实现了输入张量的二维池化。 |
|
该类实现了一个统计池化层。 |
参考
- class speechbrain.nnet.pooling.Pooling1d(pool_type, kernel_size, input_dims=3, pool_axis=1, ceil_mode=False, padding=0, dilation=1, stride=None)[source]
基础:
Module此函数实现了输入张量的一维池化。
- Parameters:
pool_type (str) – 这是要使用的池化函数的类型('avg','max')。
kernel_size (int) – 它是定义池化维度的内核大小。 例如,kernel size=3 应用大小为3的一维池化。
input_dims (int) – 输入中预期的维度数量。
pool_axis (int) – 应用池化的轴。
ceil_mode (bool) – 当为True时,将使用ceil而不是floor来计算输出形状。
padding (int) – 这是要应用的填充元素的数量。
dilation (int) – 控制池化的扩张因子。
stride (int) – 这是步幅大小。
Example
>>> pool = Pooling1d('max',3) >>> inputs = torch.rand(10, 12, 40) >>> output=pool(inputs) >>> output.shape torch.Size([10, 4, 40])
- class speechbrain.nnet.pooling.Pooling2d(pool_type, kernel_size, pool_axis=(1, 2), ceil_mode=False, padding=0, dilation=1, stride=None)[source]
基础:
Module此函数实现了输入张量的二维池化。
- Parameters:
Example
>>> pool = Pooling2d('max',(5,3)) >>> inputs = torch.rand(10, 15, 12) >>> output=pool(inputs) >>> output.shape torch.Size([10, 3, 4])
- class speechbrain.nnet.pooling.StatisticsPooling(return_mean=True, return_std=True)[source]
基础:
Module该类实现了一个统计池化层。
它返回输入张量的均值和/或标准差。
Example
>>> inp_tensor = torch.rand([5, 100, 50]) >>> sp_layer = StatisticsPooling() >>> out_tensor = sp_layer(inp_tensor) >>> out_tensor.shape torch.Size([5, 1, 100])
- class speechbrain.nnet.pooling.AdaptivePool(output_size)[source]
基础:
Module该类实现了自适应平均池化。
- Parameters:
output_size (int) – 输出的大小。
Example
>>> pool = AdaptivePool(1) >>> inp = torch.randn([8, 120, 40]) >>> output = pool(inp) >>> output.shape torch.Size([8, 1, 40])
- class speechbrain.nnet.pooling.GaussianLowpassPooling(in_channels, kernel_size, stride=1, initialization_constant=0.4, padding='same', padding_mode='constant', bias=True, skip_transpose=False)[source]
基础:
Module该类实现了一个可学习的高斯低通池化
Neil Zeghidour, Olivier Teboul, F{‘e}lix de Chaumont Quitry & Marco Tagliasacchi, “LEAF: 一个可学习的音频分类前端”, 在ICLR 2021的会议论文中 (https://arxiv.org/abs/2101.08596)
- Parameters:
in_channels (int) – 输入通道的数量。
kernel_size (int) – 高斯低通滤波器的核大小。
stride (int) – 卷积滤波器的步长因子。当步长因子大于1时,会进行时间上的降采样。
initialization_constant (float) – 用于初始化的常数,默认值为0.4
padding (str) – (same, valid)。如果为“valid”,则不进行填充。 如果为“same”且步幅为1,输出形状与输入形状相同。
padding_mode (str) – 此标志指定填充的类型。有关更多信息,请参阅 torch.nn 文档。
bias (bool) – 如果为True,则采用加法偏置b。
skip_transpose (bool) – 如果为False,使用speechbrain的批次 x 时间 x 通道约定。 如果为True,使用批次 x 通道 x 时间约定。
Example
>>> inp_tensor = torch.rand([10, 8000, 40]) >>> low_pass_pooling = GaussianLowpassPooling( ... 40, kernel_size=401, stride=160, ... ) >>> # parameters corresponding to a window of 25 ms and stride 10 ms at 16000 kHz >>> out_tensor = low_pass_pooling(inp_tensor) >>> out_tensor.shape torch.Size([10, 50, 40])
- class speechbrain.nnet.pooling.AttentionPooling(input_dim)[source]
基础:
Module此函数实现了自注意力池化 (https://arxiv.org/abs/2008.01077)。
- Parameters:
input_dim (int) – 输入 torch.Tensor 的维度
Example
>>> inp_tensor = torch.rand([4, 40]) >>> pool = AttentionPooling(input_dim=40) >>> out_tensor = pool(inp_tensor)