捷徑

torch.cuda.reset_max_memory_cached

torch.cuda.reset_max_memory_cached(device=None)[原始碼][原始碼]

重設追蹤指定裝置的快取分配器所管理的最大 GPU 記憶體的起點。

有關詳細資訊,請參閱 max_memory_cached()

參數

device (torch.deviceint可選) – 選取的裝置。如果 deviceNone(預設),則傳回目前裝置的統計資訊,該裝置由 current_device() 給定。

警告

這個函式現在會呼叫 reset_peak_memory_stats(),它會重置/所有/的峰值記憶體統計資訊。

注意

請參閱 記憶體管理 以取得關於 GPU 記憶體管理的更多詳細資訊。

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得針對初學者和進階開發者的深入教學

檢視教學

資源

尋找開發資源並取得您的問題解答

檢視資源