HUBERT_ASR_XLARGE¶
- torchaudio.pipelines.HUBERT_ASR_XLARGE¶
HuBERT 模型(“超大型”架構),預訓練於來自 Libri-Light 資料集的 60,000 小時未標記音訊 [Kahn et al., 2020],並針對來自 LibriSpeech 資料集的 960 小時轉錄音訊進行 ASR 微調 [Panayotov et al., 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的組合)。
最初由 HuBERT 的作者發布 [Hsu et al., 2021],根據 MIT 授權發布並以相同授權重新發布。[授權, 來源]
請參閱
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解用法。