torch.cuda.max_memory_reserved¶
- torch.cuda.max_memory_reserved(device=None)[原始碼][原始碼]¶
回傳指定裝置上,快取分配器所管理的最大 GPU 記憶體(以位元組為單位)。
預設情況下,這會回傳自程式開始以來快取記憶體的峰值。可以使用
reset_peak_memory_stats()
來重設追蹤此指標的起點。例如,這兩個函式可用於測量訓練迴圈中每次迭代的快取記憶體峰值。- 參數
device (torch.device 或 int, optional) – 選定的裝置。如果
device
為None
(預設值),則回傳目前裝置的統計資料,由current_device()
決定。- 回傳型別
注意
請參閱 記憶體管理 以了解更多關於 GPU 記憶體管理的細節。