Jan, 2022

SMDT: 选择性记忆增强神经文档翻译

TL;DR本文提出了一种选择性存储增强神经文档翻译模型,通过从训练语料库中检索相似的双语句对来增强全局上下文信息,并扩展双流注意力模型以捕捉局部上下文和多样化的全局上下文,该统一方法使我们的模型可以优雅地在三个公开的文档级机器翻译数据集上训练,并显著优于以前的文档级NMT模型。