捷徑

torch.cuda.reset_max_memory_allocated

torch.cuda.reset_max_memory_allocated(device=None)[來源][來源]

重設追蹤特定裝置上 tensors 佔用之最大 GPU 記憶體的起點。

詳情請參閱 max_memory_allocated()

參數

device (torch.deviceint, 選填) – 選定的裝置。如果 deviceNone (預設),則傳回由 current_device() 給定的目前裝置的統計資訊。

警告

此函式現在會呼叫 reset_peak_memory_stats(),它會重設 /所有/ 峰值記憶體統計資訊。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理

文件

取得 PyTorch 的完整開發人員文件

檢視文件

教學

取得初學者和高級開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源