捷徑

HUBERT_ASR_LARGE

torchaudio.pipelines.HUBERT_ASR_LARGE

HuBERT 模型(“大型”架構),在來自 Libri-Light 資料集的 60,000 小時未標記音訊上預訓練 [Kahn et al., 2020],並在來自 LibriSpeech 資料集的 960 小時轉錄音訊上針對 ASR 進行微調 [Panayotov et al., 2015](“train-clean-100”、“train-clean-360” 和 “train-other-500” 的組合)。

最初由 HuBERT 的作者發布 [Hsu et al., 2021],採用 MIT 授權條款,並以相同授權條款重新發布。[授權, 來源]

請參閱 torchaudio.pipelines.Wav2Vec2ASRBundle 以了解用法。

文件

存取 PyTorch 的完整開發者文件

查看文件

教學

取得初學者和進階開發人員的深入教學

查看教學

資源

尋找開發資源並獲得問題解答

查看資源