介绍了基于枢轴语言的神经机器翻译的联合训练算法,通过提出三种方法来连接两个模型并在训练期间使其相互交互,实验表明,与独立训练相比,源 - 枢轴和枢轴 - 目标模型的联合训练在各种语言中都取得了显著的改进。
Nov, 2016
本文提出了三种有效的预训练策略来提高神经机器翻译的性能,通过使用一种中间语言来实现对原语言和目标语言对之间关系的增强,从而在 WMT 2019 的 法德和德捷语任务中超过了多语言模型,同时优化了零样本 / 零资源情境下的翻译效果。
Sep, 2019
使用多种多源技术和枢轴翻译,本文研究了从英语到印度语言的机器翻译,发现多源枢轴翻译虽然只有微小改进,但与以前的论断相反,这些改进可以通过合成目标语言数据来增强。我们认为,多源枢轴翻译是一种有前景的低资源翻译方向。
Jun, 2024
本文提出了一种基于参考语言的非监督神经机器翻译 (RUNMT) 框架,以解决非监督翻译性能不佳的问题,通过扩充平行语料库的使用范围,使得参考语言只需要与源语言共享平行语料库,同时提出了一种参考协议机制,利用参考语言中的线索来帮助无监督机器翻译的重构训练。实验结果表明,该方法比只使用一个辅助语言的强基线模型在质量上有所提高,为该领域建立了良好的起点。
Apr, 2020
本论文提出一种结合了回译和多语言神经机器翻译技术的新技术,通过为一个语言对训练一个模型来改善在低资源和跨领域情况下的机器翻译效果,并且能显著降低培训和部署成本。
May, 2018
本文着眼于多语种神经机器翻译模型在英语为中心的双语语料库上的训练,结合多方对齐的语料库重新构建了完整图模型,展示了该模型在多语种翻译中的有效性和竞争力。
Oct, 2020
本文通过基于 Transformer 的语言模型提出了一种利用多语言平行文本自动生成同义词的简单统一模型,可以在一步中实现无监督同义词生成。该模型相较于中文中的折叠法方法,其生成的同义词更加相似,并且能够在大规模未对齐的语料库上进行预训练。同时,利用噪声自编码器机制还可以提高模型的多样性和鲁棒性。实验结果表明,该模型在同义词关系、多样性、流畅度和效率等方面均优于折叠法。
Nov, 2019
该研究研究了如何在只有大型单语语料库的情况下学习翻译。提出了两种模型,一种是神经模型,一种是基于短语的模型。这些模型通过参数的精心初始化、语言模型的去噪效应和反向迭代自动生成的并行数据来提高翻译性能。在 WMT'14 英语 - 法语和 WMT'16 德语 - 英语 基准测试上,这些模型分别获得 28.1 和 25.2 BLEU 分数,比现有方法的 BLEU 分数高出 11 个分数。方法在英语 - 乌尔都语和英语 - 罗马尼亚语等低资源语言中也取得了良好的结果。
Apr, 2018
本研究提出了一种基于无监督的跨语言翻译模型,采用多跳的方式将源语言翻译为目标语言,通过语言对之间的最佳翻译路径选择,最终在 20 种语言和 294 个跨度较大的语言对的实验中展示了该方法的优势。
Jun, 2019
本研究探讨了使用回译数据对 NMT 模型性能的影响,通过逐步增加回译数据来训练一系列以德语为源语言,以英语为目标语言的 NMT 系统,并分析了相应的翻译绩效。