本文提出使用多语言数据建立先前模型,结合迁移学习的方法,通过在 10 个 BABEL 语言中训练 seq2seq 模型来改进音频识别,同时在解码时加入循环神经网络语言模型 (RNNLM) 来进一步提高模型的表现,实验结果表明,将先前的多语言模型应用于 4 种其他 BABEL 语言可以有效提高识别的准确度,并且加入 RNNLM 辅助也可以带来显著的性能提升。
Oct, 2018
本文介绍了一种基于序列到序列的正常语音识别模型,它适用于 9 种不同的印度语言,并通过训练语言特定的字形集合,将这些语言联合起来训练模型以提高其性能。
Nov, 2017
该论文研究了通过使用其他语言的数据和建立多语言系统来处理自动语音识别中数据稀缺性的问题,使用循环神经网络和连接时序分类等技术进行训练,提高了多语言系统的性能,缩小了单语和多语系统之间的差距。
本文利用单个 transformer 模型及语言符号,针对低资源语言进行多语言语音识别,相较于 SHL-MLSTM 具有较高的识别精度。
Jun, 2018
利用可学习的跨语言映射和数据增强来提高低资源语言的端到端语音识别准确度。
Jun, 2023
通过实验研究,我们发现在资源有限的情况下,从字符级识别转化成单词级可以显著提高低资源语言语音翻译的速度,并且在训练数据相对较少的情况下,仍然可以实现相对较高的词汇精度和召回率。
Mar, 2018
利用最新的端到端语音识别技术,我们提出一种使用通用字符集和网络内自适应机制的多语音种语音识别系统,其可优于单一多语种或多任务学习方法,并可用于代码转换场景。
本文提出了多语言语言模型与深度语义对准(MLMA),用于产生跨语言标注的语言无关表示,方法不需要平行数据或一个词一个词匹配,只需要单语语料库,并利用深度上下文表示。实验结果表明,本方法在欧洲语言以及英语和汉语等远距离语言对上实现了新的最新 NER 和 POS 性能。
Oct, 2019
本文讨论了在任务导向的对话系统中如何识别用户意图和相应的插槽,并通过多种跨语言转移方法进行数据集训练比较
本文旨在通过使用多语言方法探究转移学习在以端到端神经模型进行口语翻译中的有效性,结果表明,使用目标语言嵌入语义空间可以更有效地区分不同目标语言并改进结果,其中当对相似语言进行翻译时效果更为显著,特别是数据不足的情况下。