WAVLM_LARGE¶
- torchaudio.pipelines.WAVLM_LARGE¶
WavLM Large 模型 (“large” 架構),在 60,000 小時的 Libri-Light 資料集 [Kahn et al., 2020]、10,000 小時的 GigaSpeech [Chen et al., 2021] 和 24,000 小時的 VoxPopuli [Wang et al., 2021] 上預訓練,未經過微調。
最初由 WavLM 的作者依據 MIT 授權發布 [Chen et al., 2022],並以相同授權重新發布。 [授權, 來源]
請參考
torchaudio.pipelines.Wav2Vec2Bundle
以了解其使用方式。