torch.cuda.max_memory_allocated¶
- torch.cuda.max_memory_allocated(device=None)[原始碼][原始碼]¶
傳回指定裝置上 tensors 所佔用的最大 GPU 記憶體 (以位元組為單位)。
預設情況下,此函式會傳回自程式開始執行以來,所分配的記憶體峰值。可以使用
reset_peak_memory_stats()
來重設追蹤此指標的起始點。 例如,這兩個函式可用於測量訓練迴圈中每次迭代所分配的記憶體使用量峰值。- 參數
device (torch.device 或 int, 選用) – 選定的裝置。如果
device
為None
(預設),則傳回由current_device()
提供的目前裝置的統計資訊。- 傳回類型
注意
請參閱 記憶體管理 以獲取有關 GPU 記憶體管理的更多詳細資訊。