快捷方式

IEMOCAP

class torchaudio.datasets.IEMOCAP(root: Union[str, Path], sessions: Tuple[str] = (1, 2, 3, 4, 5), utterance_type: Optional[str] = None)[source]

IEMOCAP [Busso et al., 2008] 資料集。

參數:
  • root (strPath) – 資料集最上層目錄所在的根目錄

  • sessions (Tuple[int]) – 要使用的 sessions (1-5) 的 Tuple。(預設值: (1, 2, 3, 4, 5))

  • utterance_type (str None, optional) – 要包含在資料集中的語句類型。選項:(“scripted”, “improvised”, None)。如果為 None,則使用 scripted 和 improvised 兩種資料。

__getitem__

IEMOCAP.__getitem__(n: int) Tuple[Tensor, int, str, str, str][來源]

從資料集中載入第 n 個樣本。

參數:

n (int) – 要載入的樣本的索引

回傳值:

以下項目的 Tuple;

Tensor

波形

int

取樣率

str

檔案名稱

str

標籤(以下其中之一: "neu""hap""ang""sad""exc""fru")

str

說話者

get_metadata

IEMOCAP.get_metadata(n: int) Tuple[str, int, str, str, str][來源]

從資料集中取得第 n 個樣本的中繼資料。回傳檔案路徑而不是波形,但其他欄位與 __getitem__() 相同。

參數:

n (int) – 要載入的樣本的索引

回傳值:

以下項目的 Tuple;

str

音訊的路徑

int

取樣率

str

檔案名稱

str

標籤(以下其中之一: "neu""hap""ang""sad""exc""fru")

str

說話者

文件

存取 PyTorch 的完整開發者文件

檢視文件

教學

取得初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得您的問題解答

檢視資源