EMNLPOct, 2020

利用对齐信息预训练多语言神经机器翻译

TL;DR我们提出了 mRASP,这是一种预训练通用多语言神经机器翻译模型的方法,通过其新颖的技术可以在表示空间中将具有相似含义的词和短语接近,并在 32 种语言对上进行了联合预训练,进而在下游语言对上进行微调,结果显示 mRASP 取得了显著的性能提升,并首次证明了多个低资源语言配对可以用于提高富资源机器翻译的质量,甚至可以提高从未在先前训练语料库中出现的外语的翻译质量。