ICMLJan, 2020

非自回归机器翻译中的分离上下文 Transformer

TL;DR本研究提出了一种基于注意力掩码的非自回归式 DisCo Transformer 神经网络模型,并结合并行的 Easy-first 推断算法,旨在同时生成所有标记并减少翻译延迟。相关实验证明该模型在非自回归机器翻译上比现有技术性能相当甚至更好,平均翻译时间明显减少。