该研究提出了一种转移学习的方法,通过先训练一个高资源语言对以及将一些已学习的参数转移至低资源语言对,来初始化和约束训练,显著提高了Bleu分数,并将低资源机器翻译性能接近于强的基于语法的机器翻译系统,超过了其一个语言对的性能,并且用于重新评分可以进一步提高低资源机器翻译的表现。
Apr, 2016
本文研究通过引入更多本地依赖关系和使用单词对齐来学习翻译过程中的句子重新排序,在低资源语言中使用神经机器翻译(NMT)模型,产生仅使用7万个训练数据令人满意的翻译结果。
Aug, 2017
本文利用元学习算法(MAML)扩展低资源NMT问题,并通过多语言高资源任务进行学习来适应低资源语言,并利用全局词汇表解决不同语言的输入输出错配, 在使用18种欧洲语言作为源任务和5种不同的语言作为目标任务的情况下,相对于基于多语言、迁移学习的方法,表明所提出的方法显著优于现有方法,并仅需少量训练示例即可获得具有竞争力的NMT系统。
Aug, 2018
本文提出一种简单但有效的方法,即将目标语句重新排序以匹配源语序,并将其作为另外一种训练时的监督信号,从而在模拟低资源日语 - 英语和真实低资源维吾尔 - 英语语种中获得显着改进。
Aug, 2019
研究了最近神经机器翻译 (NMT) 在英语和五种非洲低资源语言 (LRL) 对之间的效果,并表明多语言模型 (multilingual approach) 在某些翻译方向上有 +5 分数的提升。同时,提供标准的实验数据和测试集以供未来的研究使用。
Mar, 2020
本论文研究如何使用语言重叠来进行翻译,在仅有少量单语数据的情况下,结合去噪自编码、回译和对抗性目标,提出了一种名为NMT-Adapt的方法,实现了对低资源语言的翻译的提高。
May, 2021
本文介绍了对低资源语言NMT(LRL-NMT)的研究进展进行了详细调查,并定量分析了最受欢迎的解决方案,提供了一组指南来选择给定LRL数据设置的可能的NMT技术。它还呈现了LRL-NMT研究领域的完整视图,并提供了进一步增强LRL-NMT研究工作的建议清单。
Jun, 2021
本文对低资源神经机器翻译进行了调查,并根据所使用的辅助数据将相关作品分为三类:利用源语言和/或目标语言的单语数据,利用来自辅助语言的数据以及利用多模态数据。该调查有助于研究人员更好地理解该领域,鼓励他们设计更好的算法,也有助于帮助行业从业者选择适合其应用程序的算法。
Jul, 2021
该研究探索了低资源语言领域的神经机器翻译以及如何通过NLP和深度学习技术对语言模型进行改进
Apr, 2023
机器翻译在高资源语言取得了接近人类水平的成绩,但低资源语言的研究表明并非所有语言都能从多语言系统中受益。本文通过应用神经机器翻译技术,研究了德语和巴伐利亚语之间的自动翻译系统,并针对低资源语言的困难提出了创新的解决方案,如利用语言相似性和后向翻译等方法来改进翻译性能。
Apr, 2024