捷徑

torch.empty

torch.empty(*size, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False, pin_memory=False, memory_format=torch.contiguous_format) Tensor

傳回一個填滿未初始化資料的 Tensor。Tensor 的形狀由變數引數 size 定義。

注意

如果 torch.use_deterministic_algorithms()torch.utils.deterministic.fill_uninitialized_memory 都設定為 True,則會初始化輸出張量,以防止因使用資料作為運算的輸入而產生的任何可能的不確定性行為。浮點數和複數張量會以 NaN 填充,而整數張量則會以最大值填充。

參數

size (int...) – 一個整數序列,定義輸出張量的形狀。可以是變數數量的參數,或是像列表或元組這樣的集合。

關鍵字參數
  • out (Tensor, 可選) – 輸出張量。

  • dtype (torch.dtype, 可選) – 傳回張量的所需資料類型。預設值:如果 None,則使用全域預設值 (請參閱 torch.set_default_dtype())。

  • layout (torch.layout, 可選) – 傳回張量的所需佈局。預設值:torch.strided

  • device (torch.device, 可選) – 傳回張量的所需裝置。預設值:如果 None,則使用預設張量類型的目前裝置 (請參閱 torch.set_default_device())。device 將會是 CPU 張量類型的 CPU,以及 CUDA 張量類型的目前 CUDA 裝置。

  • requires_grad (bool, 可選) – 如果 autograd 應該記錄傳回張量的運算。預設值:False

  • pin_memory (bool, 可選) – 如果設定,傳回的張量將會被配置在釘選記憶體中。僅適用於 CPU 張量。預設值:False

  • memory_format (torch.memory_format, 可選) – 傳回張量的所需記憶體格式。預設值:torch.contiguous_format

範例

>>> torch.empty((2,3), dtype=torch.int64)
tensor([[ 9.4064e+13,  2.8000e+01,  9.3493e+13],
        [ 7.5751e+18,  7.1428e+18,  7.5955e+18]])

文件

存取 PyTorch 的全面開發人員文件

檢視文件

教學課程

取得針對初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得問題解答

檢視資源