该研究提出了一种转移学习的方法,通过先训练一个高资源语言对以及将一些已学习的参数转移至低资源语言对,来初始化和约束训练,显著提高了Bleu分数,并将低资源机器翻译性能接近于强的基于语法的机器翻译系统,超过了其一个语言对的性能,并且用于重新评分可以进一步提高低资源机器翻译的表现。
Apr, 2016
本文研究通过引入更多本地依赖关系和使用单词对齐来学习翻译过程中的句子重新排序,在低资源语言中使用神经机器翻译(NMT)模型,产生仅使用7万个训练数据令人满意的翻译结果。
Aug, 2017
基于Byte Pair Encoding的转移学习方法对低资源语言进行神经翻译的改进,提高了翻译的质量。
本研究提出了一种神经机器翻译(NMT)模型间的知识转移方法,通过共享动态词汇表来适应新语言,以达到提高翻译性能的目的,并在多种语言方向上进行了实验,结果表明具有良好的性能。
Nov, 2018
本篇论文介绍了如何使用多语言神经机器翻译(multilingual NMT)解决低资源语种翻译问题,提出了一种基于迭代自训练的方法可以利用单语数据来提高零样本翻译的性能。实验结果表明,多语言NMT优于传统的双语NMT,Transformer模型优于循环神经网络模型,零样本NMT优于传统的基于中间语的翻译方法,甚至与完全训练的双语系统相当。
Sep, 2019
通过跨语言预训练的双语预训练方法,建立了通用编码器,将传递者和接受者的语言空间对齐,使得零翻译成为可能。实验结果表明,该方法显著优于强的基准线和各种多语言NMT方法。
Dec, 2019
本研究提出了SixT,一种利用多语言预训练编码器(MPE)来促进神经机器翻译模型的跨语言迁移的方法。通过采用两阶段训练计划和位置解缠编码器以及容量增强解码器,SixT在零基础多语言翻译任务上取得了比已有模型更好的结果。
Apr, 2021
本论文研究如何使用语言重叠来进行翻译,在仅有少量单语数据的情况下,结合去噪自编码、回译和对抗性目标,提出了一种名为NMT-Adapt的方法,实现了对低资源语言的翻译的提高。
May, 2021
提出一种新颖的潜变量翻译分类模型, 在多语言NLU任务中表现优异, 实现了迁移学习。
Jul, 2021
该研究探索了低资源语言领域的神经机器翻译以及如何通过NLP和深度学习技术对语言模型进行改进
Apr, 2023