捷徑

torch.xpu

此套件引入了對 XPU 後端的支援,專為 Intel GPU 優化而設計。

此套件會延遲初始化,因此您可以隨時匯入它,並使用 is_available() 來判斷您的系統是否支援 XPU。

StreamContext

選擇給定串流的上下文管理器。

current_device

傳回目前所選裝置的索引。

current_stream

傳回給定裝置的目前所選 Stream

device

變更所選裝置的上下文管理器。

device_count

返回可用的 XPU 裝置數量。

device_of

Context-manager,可將目前的裝置變更為給定物件的裝置。

get_arch_list

返回此函式庫編譯時所針對的 XPU 架構列表。

get_device_capability

取得裝置的 XPU 能力。

get_device_name

取得裝置的名稱。

get_device_properties

取得裝置的屬性。

get_gencode_flags

返回此函式庫編譯時使用的 XPU AOT (ahead-of-time) 建置旗標。

init

初始化 PyTorch 的 XPU 狀態。

is_available

返回一個布林值,指示 XPU 目前是否可用。

is_initialized

返回 PyTorch 的 XPU 狀態是否已初始化。

set_device

設定目前的裝置。

set_stream

設定目前的 stream。這是一個用於設定 stream 的封裝 API。

stream

封裝 Context-manager StreamContext,用於選擇給定的 stream。

synchronize

等待 XPU 裝置上所有 stream 中的所有核心完成。

隨機數生成器

get_rng_state

將指定 GPU 的隨機數生成器狀態作為 ByteTensor 返回。

get_rng_state_all

返回一個 ByteTensor 列表,表示所有裝置的隨機數狀態。

initial_seed

返回目前 GPU 的目前隨機種子。

manual_seed

設定目前 GPU 生成隨機數的種子。

manual_seed_all

設定所有 GPU 生成隨機數的種子。

seed

將目前 GPU 生成隨機數的種子設定為一個隨機數。

seed_all

將所有 GPU 生成隨機數的種子設定為一個隨機數。

set_rng_state

設定指定 GPU 的隨機數生成器狀態。

set_rng_state_all

設定所有裝置的隨機數生成器狀態。

Streams 和 events

Event

XPU event 的封裝。

Stream

XPU stream 的封裝。

記憶體管理

empty_cache

釋放快取分配器目前持有的所有未佔用快取記憶體,以便這些記憶體可以在其他 XPU 應用程式中使用。

max_memory_allocated

返回給定裝置的 tensors 佔用的最大 GPU 記憶體(以位元組為單位)。

max_memory_reserved

返回給定裝置的快取分配器管理的最大 GPU 記憶體(以位元組為單位)。

mem_get_info

返回給定裝置的全域可用和總 GPU 記憶體。

memory_allocated

返回給定裝置的 tensors 目前佔用的 GPU 記憶體(以位元組為單位)。

memory_reserved

返回給定裝置的快取分配器管理的目前 GPU 記憶體(以位元組為單位)。

memory_stats

返回給定裝置的 XPU 記憶體分配器統計資訊的字典。

memory_stats_as_nested_dict

以巢狀字典的形式返回 memory_stats() 的結果。

reset_accumulated_memory_stats

重置 XPU 記憶體分配器追蹤的「累積」 (歷史) 統計資訊。

reset_peak_memory_stats

重置 XPU 記憶體分配器追蹤的「峰值」統計資訊。

文件

存取 PyTorch 的完整開發人員文檔

查看文檔

教程

獲取初學者和高級開發人員的深入教程

查看教程

資源

查找開發資源並獲得問題解答

查看資源