Dec, 2020

自适应调整:克服多语言语音识别中的长尾问题

TL;DR本文提出了一种基于 Transformer 的多任务学习框架 Adapt-and-Adjust (A2),通过利用预先训练好的多语种语言模型 (mBERT) 来提高低资源语言的性能、提出有着最小额外参数的语言特定和语言不可知适应器,以及在训练期间通过强制类先验或调整 softmax 输出的逻辑回归来克服类失衡。在 CommonVoice 数据集上的广泛实验表明,A2 明显优于传统方法。