快捷鍵

torch.cuda.max_memory_allocated

torch.cuda.max_memory_allocated(device=None)[原始碼][原始碼]

傳回指定裝置上 tensors 所佔用的最大 GPU 記憶體 (以位元組為單位)。

預設情況下,此函式會傳回自程式開始執行以來,所分配的記憶體峰值。可以使用 reset_peak_memory_stats() 來重設追蹤此指標的起始點。 例如,這兩個函式可用於測量訓練迴圈中每次迭代所分配的記憶體使用量峰值。

參數

device (torch.deviceint, 選用) – 選定的裝置。如果 deviceNone(預設),則傳回由 current_device() 提供的目前裝置的統計資訊。

傳回類型

int

注意

請參閱 記憶體管理 以獲取有關 GPU 記憶體管理的更多詳細資訊。

文件

取得 PyTorch 的完整開發人員文件

查看文件

教學課程

取得針對初學者和進階開發人員的深入教學課程

查看教學課程

資源

尋找開發資源並獲得問題解答

查看資源