提高低资源语言的零-shot翻译
该研究提出一种简单的解决方案,使用单个神经机器翻译模型在多种语言之间进行翻译,并且通过在输入句子的开头引入人工标记来指定所需的目标语言,这种方法不需要更改模型框架,该模型的剩余组件包括编码器、解码器和注意力是不变的,并共享所有语言。我们的方法使用共享的词块词汇表,不需要增加任何参数,在保持模型参数总数恒定的情况下,还经常提高所有涉及的语言对的翻译质量,甚至可以在训练期间从未看到的语言对之间进行隐式桥接,因此,我们的翻译模型不限于训练时的语言对,具有一定的通用性和迁移能力。
Nov, 2016
本研究提出了一种基于无监督学习和半监督学习的组合方法,将双重学习与零样本学习相结合,通过加强翻译任务的对偶性,并且只需要被翻译成的单一语言的单语数据,来优化机器翻译质量,结果表明该方法在零样本条件下英语、西班牙语和法语三者之间,取得了较传统 NMT 系统更好的翻译表现。
May, 2018
本文研究了神经机器翻译在多语言翻译和零样本推理上的性能,比较了双语、多语和零样本系统的翻译质量,并调查了循环神经网络和Transformer等两种神经网络模型的翻译质量。研究表明,多语言神经机器翻译能够在多个语言之间共享表示空间,实现有效的跨语言学习。
Jun, 2018
本文研究了多语言神经机器翻译模型的零样本翻译问题,提出了基于辅助损失的方法,并在WMT14英语-法语/德语上实现了与基于中介语的模型相媲美的零样本翻译效果,同时在IWSLT 2017共享任务中验证了该方法的易于扩展性。
Mar, 2019
本研究提出了两种简单但有效的方法,解决零样本神经机器翻译的退化问题,即解决了源语言和解码语言之间的虚假相关性问题。实验结果表明,在三个具有挑战性的多语言数据集上,在零样本翻译上取得了显著的提高,并且在某些情况下可以实现优于传统基于pivot翻译的效果。
Jun, 2019
通过设计归一化方法来改进 Transformer 模型以实现对未在训练过程中出现的语言对进行零-shot 机器翻译,此方法可使系统在IWSLT 2017 多语言数据集中平均提高 2.23 BLEU 分数。
Jun, 2019
本篇论文介绍了如何使用多语言神经机器翻译(multilingual NMT)解决低资源语种翻译问题,提出了一种基于迭代自训练的方法可以利用单语数据来提高零样本翻译的性能。实验结果表明,多语言NMT优于传统的双语NMT,Transformer模型优于循环神经网络模型,零样本NMT优于传统的基于中间语的翻译方法,甚至与完全训练的双语系统相当。
Sep, 2019
本文探讨了如何改善大规模多语言神经机器翻译模型的性能,并提出了加强模型能力、引入语言特定组件和加深神经机器翻译结构以支持具有不同类型学特征的语言对,同时通过随机在线回译来解决离线训练中未出现的语言对翻译问题。实验结果表明,本方法在一对多和多对多设置中缩小了双语模型的性能差距,并将零-shot表现提高约10 BLEU,接近传统的基于中间语言的方法。
Apr, 2020
研究了多语言零-shot机器翻译中的稳定性问题,发现语言特定的次词分割会提高翻译性能,单独的中间语言反而降低零-shot翻译表现,但是 在 非英语语言配对中使用少量的平行数据可以有效减少对英语的偏见。
Nov, 2020