EMNLPSep, 2021

利用预训练语言模型嫁接的多语言翻译

TL;DR本文提出了 Graformer 模型,将预训练的 BERT 和 GPT 结合起来,分别作为编码器和解码器用于机器翻译,得到了比同等规模的多语言 Transformer 更好的翻译结果。