torch.cuda.reset_max_memory_cached¶
- torch.cuda.reset_max_memory_cached(device=None)[原始碼][原始碼]¶
重設追蹤指定裝置的快取分配器所管理的最大 GPU 記憶體的起點。
有關詳細資訊,請參閱
max_memory_cached()
。- 參數
device (torch.device 或 int,可選) – 選取的裝置。如果
device
為None
(預設),則傳回目前裝置的統計資訊,該裝置由current_device()
給定。
警告
這個函式現在會呼叫
reset_peak_memory_stats()
,它會重置/所有/的峰值記憶體統計資訊。注意
請參閱 記憶體管理 以取得關於 GPU 記憶體管理的更多詳細資訊。