本文提出了三种有效的预训练策略来提高神经机器翻译的性能,通过使用一种中间语言来实现对原语言和目标语言对之间关系的增强,从而在 WMT 2019 的 法德和德捷语任务中超过了多语言模型,同时优化了零样本 / 零资源情境下的翻译效果。
Sep, 2019
该论文以多种语言为中介语,提出利用多种语言进行平行翻译的思路,应用于实现实时语音翻译并进一步改进了 BLEU 指数。
Apr, 2021
本文提出了一种基于端到端训练方法的级联翻译模型,并配置了一种改进的解码算法,该方法可以有效地利用极少量的 (parallel) data 来提高翻译质量。
May, 2023
使用多种多源技术和枢轴翻译,本文研究了从英语到印度语言的机器翻译,发现多源枢轴翻译虽然只有微小改进,但与以前的论断相反,这些改进可以通过合成目标语言数据来增强。我们认为,多源枢轴翻译是一种有前景的低资源翻译方向。
Jun, 2024
本文提出了一种新方法,通过联合 EM 优化方法融合源语言和目标语言的神经机器翻译模型,以更好地利用单语数据来提高翻译质量,实验结果表明,相对于使用单语数据训练的强基线系统,该方法可以同时提高源到目标和目标到源模型的翻译质量。
Mar, 2018
本文提出了一种基于图片引导的无资源机器翻译渐进式学习方法,从词级别开始逐步学习,最终将学习到的词汇级别的翻译应用在句子级别的翻译上,从而有效减少了图片噪声对模型学习的干扰,在两个广泛使用的基于图像引导的翻译数据集上,该方法明显优于其他最先进的方法。
Jun, 2019
本文提出了一种基于零资源的神经机器翻译方法,该方法假设平行句子在第三种语言中生成的可能性相近,借助于一种现有的基于枢轴语言的 NMT 模型进行指导,在没有平行语料库的情况下训练源语言到目标语言的 NMT 模型。实验结果表明,该方法在各种语言对上能够显著提高 BLEU 值 3.0 点以上。
May, 2017
本文提出了一种基于迁移学习的三角形机器翻译方法,利用辅助数据训练源 - 中转、中转 - 目标翻译模型,初始化中转侧的一些参数以鼓励两个翻译模型在同一中转语言空间中工作,实验结果表明我们的方法优于先前方法。
Mar, 2022
本研究提出了一种基于无监督的跨语言翻译模型,采用多跳的方式将源语言翻译为目标语言,通过语言对之间的最佳翻译路径选择,最终在 20 种语言和 294 个跨度较大的语言对的实验中展示了该方法的优势。
本文提出一种简单但有效的方法,即将目标语句重新排序以匹配源语序,并将其作为另外一种训练时的监督信号,从而在模拟低资源日语 - 英语和真实低资源维吾尔 - 英语语种中获得显着改进。
Aug, 2019