快捷方式

torch.cuda.memory_allocated

torch.cuda.memory_allocated(device=None)[原始碼][原始碼]

傳回指定裝置上 tensors 目前佔用的 GPU 記憶體 (以位元組為單位)。

參數

device (torch.deviceint, optional) – 選擇的裝置。如果 deviceNone (預設值),則傳回由 current_device() 給定的當前裝置的統計資訊。

回傳類型

int

注意

這可能小於 nvidia-smi 中顯示的數量,因為快取分配器可能會保留一些未使用的記憶體,並且需要在 GPU 上建立一些上下文。有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理

文件

存取 PyTorch 的完整開發者文件

檢視文件

教學

取得初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並解答您的問題

檢視資源