IJCAIJun, 2019

共享注意力权重用于快速 Transformer

TL;DR本文提出一种基于共享注意力权重和隐藏状态重用的快速、轻量级的注意力模型,用于加速 Transformer 机器翻译系统,在十项 WMT 和 NIST OpenMT 任务上实现了平均 1.3 倍的速度提升(几乎不降低 BLEU)和与 Aan 模型的 1.8 倍加速(比没有使用注意力缓存的基线高出 16 倍)。