Shortcuts

torch.nn.utils.rnn.pad_packed_sequence

torch.nn.utils.rnn.pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None)[源代码]

填充一批可变长度的打包序列。

它是pack_padded_sequence()的逆操作。

返回的张量数据的大小为 T x B x *,其中 T 是最长序列的长度,B 是批次大小。如果 batch_first 为 True,数据将被转置为 B x T x * 格式。

示例

>>> from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence
>>> seq = torch.tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]])
>>> lens = [2, 1, 3]
>>> packed = pack_padded_sequence(seq, lens, batch_first=True, enforce_sorted=False)
>>> packed
PackedSequence(data=tensor([4, 1, 3, 5, 2, 6]), batch_sizes=tensor([3, 2, 1]),
               sorted_indices=tensor([2, 0, 1]), unsorted_indices=tensor([1, 2, 0]))
>>> seq_unpacked, lens_unpacked = pad_packed_sequence(packed, batch_first=True)
>>> seq_unpacked
tensor([[1, 2, 0],
        [3, 0, 0],
        [4, 5, 6]])
>>> lens_unpacked
tensor([2, 1, 3])

注意

total_length 对于在 Module 中实现 pack sequence -> recurrent network -> unpack sequence 模式非常有用,该模式被包装在 DataParallel 中。 详情请参见 此FAQ部分

Parameters
  • 序列 (PackedSequence) – 要填充的批次

  • batch_first (bool, 可选) – 如果 True,输出将为 B x T x * 格式。

  • padding_value (float, 可选) – 填充元素的值。

  • total_length (int, 可选) – 如果不为None,输出将被填充以具有长度total_length。如果total_length小于sequence中的最大序列长度,此方法将抛出ValueError

Returns

包含填充序列的张量元组,以及包含批次中每个序列长度的张量。 批次元素将按照最初传递给 pack_padded_sequencepack_sequence 时的顺序重新排序。

Return type

元组[张量, 张量]