COLINGNov, 2020

非自回归翻译的上下文感知交叉注意力

TL;DR本研究针对非自回归翻译中 decoder 缺乏目标依赖建模的问题,提出一种基于跨注意力增强源上下文信息的方法,实验表明该方法能够改善翻译质量并更好地利用源语句的局部和全局信息。