捷徑

torch.cuda.max_memory_reserved

torch.cuda.max_memory_reserved(device=None)[原始碼][原始碼]

回傳指定裝置上,快取分配器所管理的最大 GPU 記憶體(以位元組為單位)。

預設情況下,這會回傳自程式開始以來快取記憶體的峰值。可以使用 reset_peak_memory_stats() 來重設追蹤此指標的起點。例如,這兩個函式可用於測量訓練迴圈中每次迭代的快取記憶體峰值。

參數

device (torch.deviceint, optional) – 選定的裝置。如果 deviceNone (預設值),則回傳目前裝置的統計資料,由 current_device() 決定。

回傳型別

int

注意

請參閱 記憶體管理 以了解更多關於 GPU 記憶體管理的細節。

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得適用於初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並獲得問題解答

檢視資源