低资源语言对的端到端代码开关ASR
本文利用单个transformer模型及语言符号,针对低资源语言进行多语言语音识别,相较于SHL-MLSTM具有较高的识别精度。
Jun, 2018
本文提出了改进自动语音识别系统的语音和语言模型技术,用于混合语言Frision和Dutch广播语音的语音识别,通过训练包括单语及混合码的语音数据集,改善了模型效果并提高了混合语音自动识别性能。
Jul, 2018
本文提出一种对Maithili、Bhojpuri和Dogri语言创建标签数据的方法,并使用伪标签训练基于Transformer的wav2vec 2.0 ASR模型。
Mar, 2022
本文研究提出一种简单而有效的数据增强方法,以在缺乏大量语料库的情况下训练多语言系统,进而提高Code-Switching语音的自动识别水平。通过将不同源语言的音频和相应标签连结在一起训练神经网络端到端(E2E)模型,实现在跨句子语言转换方面的提高。
Oct, 2022
该研究论文介绍了端到端自动语音识别模型的分类和改进,讨论了它们对传统隐马尔科夫模型的影响,涵盖了模型、训练、解码和外部语言模型集成等各个方面,同时讨论了性能和部署机会以及未来的发展前景。
Mar, 2023
提出了一种名为 METHODNS 的自动语音识别框架,通过模块化的方法实现低资源适应能力和多语言可扩展性,能够显著提高多语言和低资源语音识别的性能。
Jun, 2023
通过在自动语音识别模型的编码器的中间层引入语言识别信息,本文旨在以更加隐式的方式生成暗示语言区别的声学特征,降低模型在处理语言切换时的混淆。
Dec, 2023
本研究解决了将低资源语言整合到多语种自动语音识别系统中的挑战。通过在持续多语种学习背景下引入加权交叉熵的方法,研究表明该方法对低资源语言的语音识别效果显著提高,词错误率减少了6.69%,并且在六种语言中平均减少了3.29%的错误率,而高资源语言的表现未受到影响。
Sep, 2024