EMNLPSep, 2021
使用高斯混合模型建模 Neural Machine Translation 的集中交叉注意力
Modeling Concentrated Cross-Attention for Neural Machine Translation with Gaussian Mixture Model
Shaolei Zhang, Yang Feng
TL;DR本研究提出了一种新的交叉注意力方法 —— 集中注意力,并使用高斯混合模型 (GMM) 进行建模,实验证明该方法在机器翻译中具有明显的性能优势,尤其在对长句的处理、对齐质量和 N 元准确性方面取得了显著的提升。