ACLMay, 2021

多对多多语言神经机器翻译的对比学习

TL;DR本论文旨在建立一个多对多的机器翻译系统,重点关注非英语语言方向的质量。为此,我们提出了一种训练方法 mRASP2,通过对不同语言的表示进行对比学习和数据增强来获得单一统一的跨语言翻译模型,该模型在英语为中心的方向中表现优异,在非英语方向中比多语言 Transformer 基准模型提高 10+ BLEU 分数。