pad_sequence¶
- class tensordict.pad_sequence(list_of_tensordicts: Sequence[T], pad_dim: int = 0, padding_value: float = 0.0, out: Optional[T] = None, device: Optional[Union[device, str, int]] = None, return_mask: bool | tensordict._nestedkey.NestedKey = False)¶
填充 tensordict 列表,以便將它們以連續格式堆疊在一起。
- 參數:
list_of_tensordicts (List[TensorDictBase]) – 要填充和堆疊的實例列表。
pad_dim (int, optional) –
pad_dim
指示要填充 tensordict 中所有鍵的維度。預設為0
。padding_value (number, optional) – 填充值。預設為
0.0
。out (TensorDictBase, optional) – 如果提供,資料將寫入的目的地。
return_mask (bool 或 NestedKey, 選用) – 如果
True
,將會回傳一個 “masks” 條目。如果return_mask
是一個巢狀鍵(字串或字串的 tuple),它將會回傳 masks,並被用作 masks 條目的鍵。它包含一個 tensordict,其結構與堆疊的 tensordict 相同,其中每個條目都包含有效值的遮罩,大小為torch.Size([stack_len, *new_shape])
,其中 new_shape[pad_dim] = max_seq_length,而 new_shape 的其餘部分與所含張量的前一個形狀相符。
範例
>>> list_td = [ ... TensorDict({"a": torch.zeros((3, 8)), "b": torch.zeros((6, 8))}, batch_size=[]), ... TensorDict({"a": torch.zeros((5, 8)), "b": torch.zeros((6, 8))}, batch_size=[]), ... ] >>> padded_td = pad_sequence(list_td, return_mask=True) >>> print(padded_td) TensorDict( fields={ a: Tensor(shape=torch.Size([2, 4, 8]), device=cpu, dtype=torch.float32, is_shared=False), b: Tensor(shape=torch.Size([2, 5, 8]), device=cpu, dtype=torch.float32, is_shared=False), masks: TensorDict( fields={ a: Tensor(shape=torch.Size([2, 4]), device=cpu, dtype=torch.bool, is_shared=False), b: Tensor(shape=torch.Size([2, 6]), device=cpu, dtype=torch.bool, is_shared=False)}, batch_size=torch.Size([2]), device=None, is_shared=False)}, batch_size=torch.Size([2]), device=None, is_shared=False)