Oct, 2023

MUST: 低资源语音识别的多语种学生-教师学习方法

TL;DR学生-教师学习或知识蒸馏已被用于解决言语识别系统训练中数据稀缺问题,本文提出了一种多语言学生-教师学习方法,通过使用预训练的映射模型将教师语言的posterior映射到学生语言的声学模型,将这些映射过程中的posteriors作为知识蒸馏的软标签,通过不同的教师集成方案训练出适用于低资源语言的ASR模型,相比基准单语言ASR模型,使用多语言学生-教师学习训练的模型降低了相对字符错误率(CER)9.5%。