torch.cuda.empty_cache¶ torch.cuda.empty_cache()[原始碼][原始碼]¶ 釋放所有快取分配器目前持有的未佔用快取記憶體,以便這些記憶體可以在其他 GPU 應用程式中使用,並在 nvidia-smi 中可見。 注意 empty_cache() 並不會增加 PyTorch 可用的 GPU 記憶體數量。然而,在某些情況下,它可以幫助減少 GPU 記憶體的碎片化。有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理。