COLINGNov, 2020
非自回归翻译的上下文感知交叉注意力
Context-Aware Cross-Attention for Non-Autoregressive Translation
Liang Ding, Longyue Wang, Di Wu, Dacheng Tao, Zhaopeng Tu
TL;DR本研究针对非自回归翻译中 decoder 缺乏目标依赖建模的问题,提出一种基于跨注意力增强源上下文信息的方法,实验表明该方法能够改善翻译质量并更好地利用源语句的局部和全局信息。