理解与缓解零样本翻译中的不确定性
本文提出一种简单的迭代训练过程,利用系统直接生成的翻译对零-shot方向进行翻译,以及原始并行数据,来重新训练多语言网络,有效提高了多语言模型的BLEU分数,并且在非零-shot语言方向上的性能也略有提升。
Nov, 2018
本文研究了多语言神经机器翻译模型的零样本翻译问题,提出了基于辅助损失的方法,并在WMT14英语-法语/德语上实现了与基于中介语的模型相媲美的零样本翻译效果,同时在IWSLT 2017共享任务中验证了该方法的易于扩展性。
Mar, 2019
通过将多语言翻译问题重新构造为概率推理,定义了零-shot一致性的概念;引入了一种基于一致性约束的训练方法,鼓励模型在辅助语言中生成等效的平行句子翻译,最终我们测试了多种公共的零-shot翻译基准数据集,并证明基于一致性约束训练的NMT模型通常会在无监督翻译任务上取得2-3 BLEU的提高,而在监督翻译任务上的性能不会降低。
Apr, 2019
本研究提出了两种简单但有效的方法,解决零样本神经机器翻译的退化问题,即解决了源语言和解码语言之间的虚假相关性问题。实验结果表明,在三个具有挑战性的多语言数据集上,在零样本翻译上取得了显著的提高,并且在某些情况下可以实现优于传统基于pivot翻译的效果。
Jun, 2019
本文研究了多语言NMT模型的解码器参数的完全或部分共享的几种方法,在仅使用WMT2019共享任务并行数据集进行训练的110个独特翻译方向上评估了完全监督和零样本翻译性能。通过使用其他测试集并重新利用最近用于无监督MT的评估方法来评估在没有黄金标准平行数据的语言对的零样本翻译性能。我们进行了不同模型翻译性能的深入评估,突出了解码器参数共享方法之间的权衡取舍。我们发现,在具有任务特定解码器参数的模型中,优于在所有任务上完全共享解码器参数的模型。
Jun, 2019
本文探讨了如何改善大规模多语言神经机器翻译模型的性能,并提出了加强模型能力、引入语言特定组件和加深神经机器翻译结构以支持具有不同类型学特征的语言对,同时通过随机在线回译来解决离线训练中未出现的语言对翻译问题。实验结果表明,本方法在一对多和多对多设置中缩小了双语模型的性能差距,并将零-shot表现提高约10 BLEU,接近传统的基于中间语言的方法。
Apr, 2020
该研究利用深度学习方法,将自然语言翻译应用于零式翻译,提出使用去噪自编码器和支点语言改进零式翻译的传统训练目标,以提高翻译准确性,并在两个基准机器翻译数据集上取得了优异的表现。
Sep, 2021
本研究提出了一种名为Language Aware Vocabulary Sharing的算法,该算法通过增加两种语言之间的KL-divergence,将多语言单词表构建成一个单一的单词表,有效地减少了翻译模型的离目标问题。
May, 2023
通过对涵盖40种语言的1,560个语言方向进行系统实验,我们发现目标端翻译质量是最具影响力的因素,词汇重叠一直对零射击性能产生影响,此外,语言的家族和书写系统等语言属性对于较小的模型具有一定作用。
Oct, 2023