本研究旨在通过使用特定领域的平行语料库进行语言转移,利用增强学习方法进一步微调翻译器,从而在中英语言转移方面取得显著的成功,提高了相对于传统方法的领域分类准确率22%,槽提取F1得分71%以上。
Aug, 2018
利用生成对抗网络和无监督多语言嵌入,结合多源语言训练数据的多语言转移学习方法,在多语言文本分类和序列标记任务中实现 target 语言的显著性能提升。
Oct, 2018
本文讨论了在任务导向的对话系统中如何识别用户意图和相应的插槽,并通过多种跨语言转移方法进行数据集训练比较
本文研究提出了一种通用多语言模型的框架,该框架利用深度学习架构实现语音助手设备的自然语言理解,显著减少了单独开发每种语言模型所需要的努力和维护成本,并在多语种环境下取得了比单语种环境下更好的研究成果。
Dec, 2020
该论文研究了基于跨语言转移的多语种自动语音识别模型的最新进展和最佳实践,并探讨了未来的研究方向和建议。
Feb, 2022
本研究提出一个基于对话、槽位和单词水平的对比学习框架来显式对齐跨语言口语理解中隐含语义结构的多语种混合方法,通过引入硬负样本和标签关联联合模型,取得了两个零-shot跨语言口语理解的基准数据集中显著的性能改进。
May, 2022
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
介绍了一种名为CLP-Transfer的跨语言和渐进式迁移学习方法,将预训练模型从一个源语言转移到一个新的目标语言,实现了资源高效的训练,同时解决了资源不足的语言之间的表现差距问题,并比单纯的跨语言传输要好。
Jan, 2023
利用跨语言语音翻译(ST)作为预训练任务可提高单语和多语意图分类,口语问答的性能,并探索模型的贝叶斯迁移学习和持续学习惯性。
May, 2023
介绍了一种使用大型语言模型进行机器翻译的流水线,用于扩展语音助手系统的口语理解模型,提高了多语言场景和设备本地场景下的整体准确率。
Apr, 2024