HUBERT_BASE¶
- torchaudio.pipelines.HUBERT_BASE¶
HuBERT 模型(“base” 架構),預先在來自 LibriSpeech 數據集 [Panayotov et al., 2015] (由 “train-clean-100”、“train-clean-360” 和 “train-other-500” 組合而成) 的 960 小時未標記音訊上進行預訓練,未經微調。
最初由 HuBERT 的作者發布 [Hsu et al., 2021],並根據 MIT 許可證發布,並以相同許可證重新發布。[許可證, 來源]
請參考
torchaudio.pipelines.Wav2Vec2Bundle
以了解用法。