捷徑

torch.cuda.caching_allocator_alloc

torch.cuda.caching_allocator_alloc(size, device=None, stream=None)[來源][來源]

使用 CUDA 記憶體分配器執行記憶體分配。

記憶體會針對給定的裝置和串流進行分配,此函式旨在與其他框架互通。分配的記憶體會透過 caching_allocator_delete() 釋放。

參數
  • size (int) – 要分配的位元組數。

  • device (torch.deviceint, optional) – 選取的裝置。如果為 None,則會使用預設的 CUDA 裝置。

  • stream (torch.cuda.Streamint, optional) – 選取的串流。如果為 None,則會使用所選裝置的預設串流。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題的解答

檢視資源