COLINGJun, 2018

多语言神经机器翻译中 Transformer 和循环神经网络的比较

TL;DR本文研究了神经机器翻译在多语言翻译和零样本推理上的性能,比较了双语、多语和零样本系统的翻译质量,并调查了循环神经网络和 Transformer 等两种神经网络模型的翻译质量。研究表明,多语言神经机器翻译能够在多个语言之间共享表示空间,实现有效的跨语言学习。