捷徑

torch.cuda.empty_cache

torch.cuda.empty_cache()[原始碼][原始碼]

釋放所有快取分配器目前持有的未佔用快取記憶體,以便這些記憶體可以在其他 GPU 應用程式中使用,並在 nvidia-smi 中可見。

注意

empty_cache() 並不會增加 PyTorch 可用的 GPU 記憶體數量。然而,在某些情況下,它可以幫助減少 GPU 記憶體的碎片化。有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理

文件

獲取 PyTorch 的完整開發者文件

檢視文件

教學

獲取針對初學者和進階開發者的深入教學

檢視教學

資源

尋找開發資源並獲得問題解答

檢視資源