Jan, 2023
通过多语言微调和持续预训练为新的欠资源语言调整多语音表示模型
Adapting Multilingual Speech Representation Model for a New,
Underresourced Language through Multilingual Fine-tuning and Continued
Pretraining
TL;DR本研究尝试将预训练的多语言wav2vec 2.0神经模型应用于研究极度濒危的阿伊努语,通过多语言微调和预训练对模型进行改进,结果显示继续预训练是适应新语言的最有效方法,并且利用类似语言的数据进行微调可以显著减少错误率。