三角形转移:为三角形机器翻译锁定旋转点
介绍了基于枢轴语言的神经机器翻译的联合训练算法,通过提出三种方法来连接两个模型并在训练期间使其相互交互,实验表明,与独立训练相比,源 - 枢轴和枢轴 - 目标模型的联合训练在各种语言中都取得了显著的改进。
Nov, 2016
本文提出了三种有效的预训练策略来提高神经机器翻译的性能,通过使用一种中间语言来实现对原语言和目标语言对之间关系的增强,从而在 WMT 2019 的 法德和德捷语任务中超过了多语言模型,同时优化了零样本 / 零资源情境下的翻译效果。
Sep, 2019
本文提出了一种基于端到端训练方法的级联翻译模型,并配置了一种改进的解码算法,该方法可以有效地利用极少量的 (parallel) data 来提高翻译质量。
May, 2023
本文提出了一种基于图片引导的无资源机器翻译渐进式学习方法,从词级别开始逐步学习,最终将学习到的词汇级别的翻译应用在句子级别的翻译上,从而有效减少了图片噪声对模型学习的干扰,在两个广泛使用的基于图像引导的翻译数据集上,该方法明显优于其他最先进的方法。
Jun, 2019
本研究提出了一种简单的迁移学习方法,通过训练 “父模型” 并在低资源语言对上进行训练,取代了原有的训练语料库,成功地提高了针对不同语言对的机器翻译性能。
Sep, 2018
使用多种多源技术和枢轴翻译,本文研究了从英语到印度语言的机器翻译,发现多源枢轴翻译虽然只有微小改进,但与以前的论断相反,这些改进可以通过合成目标语言数据来增强。我们认为,多源枢轴翻译是一种有前景的低资源翻译方向。
Jun, 2024
本文提出了一种名为 MTrans 的新框架,其使用 TPD 方法进行训练以实现源 - 辅助 - 目标的最优路径,并使用 Bi-MAgree 框架和 MKL 方法来鼓励跨语言一致性。实验表明,这种方法在多个任务上都表现出了显著的改善。
Sep, 2022
本研究提出了一种基于无监督的跨语言翻译模型,采用多跳的方式将源语言翻译为目标语言,通过语言对之间的最佳翻译路径选择,最终在 20 种语言和 294 个跨度较大的语言对的实验中展示了该方法的优势。
Jun, 2019
大规模多语言机器翻译模型在一种模型中翻译大量语言,但在低资源和非常低资源的翻译方向上的性能有限。在这篇论文中,我们重新审视通过多个语言进行枢轴翻译的方法。我们提出了 MaxEns 作为一种组合策略,偏向于最自信的预测,以减少翻译中出现的幻觉问题。通过在 FLORES 基准测试中评估不同策略,我们证明 MaxEns 提高低资源语言的翻译质量,同时减少翻译中的幻觉,相对于直接翻译和平均方法。平均而言,多枢轴策略仍然落后于使用英语作为单个枢轴语言,这引发了如何为特定翻译方向确定最佳枢轴策略的问题。
Nov, 2023