机器翻译模型是零样本翻译方向检测器
本研究提出了一种基于无监督学习和半监督学习的组合方法,将双重学习与零样本学习相结合,通过加强翻译任务的对偶性,并且只需要被翻译成的单一语言的单语数据,来优化机器翻译质量,结果表明该方法在零样本条件下英语、西班牙语和法语三者之间,取得了较传统 NMT 系统更好的翻译表现。
May, 2018
本文提出一种简单的迭代训练过程,利用系统直接生成的翻译对零 - shot 方向进行翻译,以及原始并行数据,来重新训练多语言网络,有效提高了多语言模型的 BLEU 分数,并且在非零 - shot 语言方向上的性能也略有提升。
Nov, 2018
本研究提出了两种简单但有效的方法,解决零样本神经机器翻译的退化问题,即解决了源语言和解码语言之间的虚假相关性问题。实验结果表明,在三个具有挑战性的多语言数据集上,在零样本翻译上取得了显著的提高,并且在某些情况下可以实现优于传统基于 pivot 翻译的效果。
Jun, 2019
本研究提出了一种跨语言无监督神经机器翻译框架,利用来自高资源语言对的弱监督信号,以提高零资源翻译质量。该框架基于多语言模型,不需要对标准无监督神经机器翻译进行改动,实验结果表明使用该框架可以在六个基准无监督翻译方向上将翻译质量提高超过 3 个 BLEU 分数。
Apr, 2020
该研究利用深度学习方法,将自然语言翻译应用于零式翻译,提出使用去噪自编码器和支点语言改进零式翻译的传统训练目标,以提高翻译准确性,并在两个基准机器翻译数据集上取得了优异的表现。
Sep, 2021
通过将多语言翻译问题重新构造为概率推理,定义了零 - shot 一致性的概念;引入了一种基于一致性约束的训练方法,鼓励模型在辅助语言中生成等效的平行句子翻译,最终我们测试了多种公共的零 - shot 翻译基准数据集,并证明基于一致性约束训练的 NMT 模型通常会在无监督翻译任务上取得 2-3 BLEU 的提高,而在监督翻译任务上的性能不会降低。
Apr, 2019
本文提供了最大的基于短语的 SMT 和神经机器翻译之间的翻译质量比较,分析了 30 种翻译方向,其中 10 种方向中还包括分级短语 MT;在第二部分中,作者调查了翻译速度的不同方面,引入了 AmuNMT,一种高效的神经机器翻译解码器,通过比较每秒处理的单词数,证明了当前的神经机器翻译已经可以用于生产系统中。
Oct, 2016
本文通过基于 Transformer 的语言模型提出了一种利用多语言平行文本自动生成同义词的简单统一模型,可以在一步中实现无监督同义词生成。该模型相较于中文中的折叠法方法,其生成的同义词更加相似,并且能够在大规模未对齐的语料库上进行预训练。同时,利用噪声自编码器机制还可以提高模型的多样性和鲁棒性。实验结果表明,该模型在同义词关系、多样性、流畅度和效率等方面均优于折叠法。
Nov, 2019
使用序列到序列的释义器作为人类参考的评估工具,将机器翻译评估任务转化为对机器翻译输出进行评分的任务。通过将释义技术视为零射任务,将释义器训练为多语言 NMT 系统,并将其应用于质量估计任务中,以条件化源,而不是参考,发现其在各种语言对中的表现均优于 WMT 2019 质量评估任务中的所有其他度量标准。
Apr, 2020
本研究提出了一种全新的方法,在没有平行数据的情况下,只利用单语数据即可训练 NMT 系统。这种基于注意力机制的编码器解码器模型结合去噪和回译技术, 在 WMT 2014 的法英和德英翻译中获得了 15.56 和 10.21 BLEU 分数,且能够利用少量的平行数据来提高翻译质量。
Oct, 2017