EMNLPOct, 2018

使用文档级上下文来改进 Transformer 翻译模型

TL;DR该研究通过在 Transformer 模型中引入上下文编码器,将文档级别的上下文信息融入原有的编码器和解码器中提高翻译质量,同时采用双倍训练方法,充分利用句子级别平行语料库和有限的文档级别平行语料库来训练模型,并通过 NIST 中英数据集和 IWSLT 法英数据集的实验表明,该方法显著提升了 Transformer 模型的性能表现。