torch.nn.utils.rnn.pad_packed_sequence¶
- torch.nn.utils.rnn.pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None)[源代码]¶
填充一批可变长度的打包序列。
它是
pack_padded_sequence()
的逆操作。返回的张量数据的大小为
T x B x *
,其中 T 是最长序列的长度,B 是批次大小。如果batch_first
为 True,数据将被转置为B x T x *
格式。示例
>>> from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence >>> seq = torch.tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]]) >>> lens = [2, 1, 3] >>> packed = pack_padded_sequence(seq, lens, batch_first=True, enforce_sorted=False) >>> packed PackedSequence(data=tensor([4, 1, 3, 5, 2, 6]), batch_sizes=tensor([3, 2, 1]), sorted_indices=tensor([2, 0, 1]), unsorted_indices=tensor([1, 2, 0])) >>> seq_unpacked, lens_unpacked = pad_packed_sequence(packed, batch_first=True) >>> seq_unpacked tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]]) >>> lens_unpacked tensor([2, 1, 3])
注意
total_length
对于在Module
中实现pack sequence -> recurrent network -> unpack sequence
模式非常有用,该模式被包装在DataParallel
中。 详情请参见 此FAQ部分。- Parameters
序列 (PackedSequence) – 要填充的批次
batch_first (bool, 可选) – 如果
True
,输出将为B x T x *
格式。padding_value (float, 可选) – 填充元素的值。
total_length (int, 可选) – 如果不为
None
,输出将被填充以具有长度total_length
。如果total_length
小于sequence
中的最大序列长度,此方法将抛出ValueError
。
- Returns
包含填充序列的张量元组,以及包含批次中每个序列长度的张量。 批次元素将按照最初传递给
pack_padded_sequence
或pack_sequence
时的顺序重新排序。- Return type