WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“大型”架構,帶有額外的線性模組),在來自 LibriSpeech 資料集的 960 小時未標記音訊上預訓練 [Panayotov et al., 2015] (“train-clean-100”、“train-clean-360” 和 “train-other-500” 的組合),並在來自 Libri-Light 資料集的 10 分鐘轉錄音訊上針對 ASR 進行微調 [Kahn et al., 2020] (“train-10min” 子集)。
最初由 wav2vec 2.0 的作者發布 [Baevski et al., 2020],根據 MIT 許可證發布並以相同許可證重新發布。[許可證, 來源]
請參閱
torchaudio.pipelines.Wav2Vec2ASRBundle
以了解用法。