零样本神经机器翻译的有效策略
本文提出一种简单的迭代训练过程,利用系统直接生成的翻译对零 - shot 方向进行翻译,以及原始并行数据,来重新训练多语言网络,有效提高了多语言模型的 BLEU 分数,并且在非零 - shot 语言方向上的性能也略有提升。
Nov, 2018
本文探讨了如何改善大规模多语言神经机器翻译模型的性能,并提出了加强模型能力、引入语言特定组件和加深神经机器翻译结构以支持具有不同类型学特征的语言对,同时通过随机在线回译来解决离线训练中未出现的语言对翻译问题。实验结果表明,本方法在一对多和多对多设置中缩小了双语模型的性能差距,并将零 - shot 表现提高约 10 BLEU,接近传统的基于中间语言的方法。
Apr, 2020
本篇论文介绍了如何使用多语言神经机器翻译(multilingual NMT)解决低资源语种翻译问题,提出了一种基于迭代自训练的方法可以利用单语数据来提高零样本翻译的性能。实验结果表明,多语言 NMT 优于传统的双语 NMT,Transformer 模型优于循环神经网络模型,零样本 NMT 优于传统的基于中间语的翻译方法,甚至与完全训练的双语系统相当。
Sep, 2019
本研究提出了一种基于无监督学习和半监督学习的组合方法,将双重学习与零样本学习相结合,通过加强翻译任务的对偶性,并且只需要被翻译成的单一语言的单语数据,来优化机器翻译质量,结果表明该方法在零样本条件下英语、西班牙语和法语三者之间,取得了较传统 NMT 系统更好的翻译表现。
May, 2018
本文提出了一种新颖的微调算法,该算法针对最近引入的多方位、多语言神经机器翻译,该翻译使零资源机器翻译成为可能,并且在与新颖的一对多翻译策略结合使用时,我们在经验上表明,该微调算法使得多方位、多语言模型能够翻译一个零资源语言对,且与单一对神经翻译模型训练 1M 条同一语言对的直接平行句子时相当,并且比基于中继的翻译策略更好,同时只保留一个额外的注意到相关参数的副本。
Jun, 2016
本文研究了多语言神经机器翻译模型的零样本翻译问题,提出了基于辅助损失的方法,并在 WMT14 英语 - 法语 / 德语上实现了与基于中介语的模型相媲美的零样本翻译效果,同时在 IWSLT 2017 共享任务中验证了该方法的易于扩展性。
Mar, 2019
通过将多语言翻译问题重新构造为概率推理,定义了零 - shot 一致性的概念;引入了一种基于一致性约束的训练方法,鼓励模型在辅助语言中生成等效的平行句子翻译,最终我们测试了多种公共的零 - shot 翻译基准数据集,并证明基于一致性约束训练的 NMT 模型通常会在无监督翻译任务上取得 2-3 BLEU 的提高,而在监督翻译任务上的性能不会降低。
Apr, 2019
通过设计归一化方法来改进 Transformer 模型以实现对未在训练过程中出现的语言对进行零 - shot 机器翻译,此方法可使系统在 IWSLT 2017 多语言数据集中平均提高 2.23 BLEU 分数。
Jun, 2019
该研究提出一种简单的解决方案,使用单个神经机器翻译模型在多种语言之间进行翻译,并且通过在输入句子的开头引入人工标记来指定所需的目标语言,这种方法不需要更改模型框架,该模型的剩余组件包括编码器、解码器和注意力是不变的,并共享所有语言。我们的方法使用共享的词块词汇表,不需要增加任何参数,在保持模型参数总数恒定的情况下,还经常提高所有涉及的语言对的翻译质量,甚至可以在训练期间从未看到的语言对之间进行隐式桥接,因此,我们的翻译模型不限于训练时的语言对,具有一定的通用性和迁移能力。
Nov, 2016
本研究提出了两种简单但有效的方法,解决零样本神经机器翻译的退化问题,即解决了源语言和解码语言之间的虚假相关性问题。实验结果表明,在三个具有挑战性的多语言数据集上,在零样本翻译上取得了显著的提高,并且在某些情况下可以实现优于传统基于 pivot 翻译的效果。
Jun, 2019