本文旨在讨论如何通过两阶段训练策略实现多语言神经机器翻译系统,以解决低效率的问题,并在 WMT'21 多语言翻译任务中进行实验验证,证明我们的系统在大多数方向上优于基线模型,并且不需要架构修改或额外数据收集。
Jun, 2022
本文提出了一种新方法,通过联合 EM 优化方法融合源语言和目标语言的神经机器翻译模型,以更好地利用单语数据来提高翻译质量,实验结果表明,相对于使用单语数据训练的强基线系统,该方法可以同时提高源到目标和目标到源模型的翻译质量。
Mar, 2018
本文探讨了多语种神经机器翻译的极限,通过实验培训了适用于 102 种语言的模型,并在 59 种语言上表现出了优异的翻译效果,表明大规模多语种神经机器翻译模型对低资源环境下的翻译质量有积极支持和刺激。
Feb, 2019
本文旨在介绍多语言神经网络机器翻译(MNMT)的概述,重点关注其经验转移的传输学习方法,对相关研究领域、建模原理和挑战进行了细致分类,讨论了不同技术的优劣,并探讨了未来的研究方向。
Jan, 2020
本研究提出了一种全新的方法,在没有平行数据的情况下,只利用单语数据即可训练 NMT 系统。这种基于注意力机制的编码器解码器模型结合去噪和回译技术, 在 WMT 2014 的法英和德英翻译中获得了 15.56 和 10.21 BLEU 分数,且能够利用少量的平行数据来提高翻译质量。
Oct, 2017
提出了一种基于多任务学习的框架,通过对单语数据的两个去噪任务和双语数据的翻译任务联合训练模型,显著提高了多语言 NMT 系统的翻译质量,并在零样本学习的情况下证明了该方法的有效性。
Oct, 2020
本研究建立了一种真正的 Many-to-Many 多语言翻译模型,可以直接在 100 种语言之间进行翻译,并通过密集扩展和语言特定的稀疏参数提高模型质量,优于 WMT 单一系统的表现。
通过将单语数据与自动背景翻译配对,我们未改变神经网络结构,使用目标语单语训练数据进行神经机器翻译(NMT)模型的训练,并在多项任务上取得最新的最优结果(最高 + 2.8-3.7 BLEU),并证明了使用领域单语和平行数据进行微调,对 IWSLT 15 任务英德翻译有实质性的改善。
Nov, 2015
本论文提出一种结合了回译和多语言神经机器翻译技术的新技术,通过为一个语言对训练一个模型来改善在低资源和跨领域情况下的机器翻译效果,并且能显著降低培训和部署成本。
May, 2018
通过模仿学习 imitate learning 的方法扩展大规模多语言神经机器翻译 MNMT 模型,解决了新语言增加后导致性能下降的问题,并改善了翻译性能和解决了当前大规模神经机器翻译模型中常见的复制和偏离问题。
Nov, 2023