EMNLPOct, 2022

基于线性关注力模型建模上下文,实现可扩展的文档级翻译

TL;DR本文研究了一种基于 Peng et al. (2021) 的线性注意力模型,并通过句子门促进最近归纳偏置,以提高文档级机器翻译的效能和翻译质量,并在 IWSLT 2015 和 OpenSubtitles 2018 上进行了评估和测试,结果表明该模型在长序列的解码速度方面有大幅提高,且翻译得分相似或更高,并展示了句子门进一步提高了 IWSLT 上的翻译质量。