Sep, 2019

单调多头注意力

TL;DR本文提出了一种名为 Monotonic Multihead Attention(MMA)的新型注意力机制,可应用于同时翻译的机器翻译任务,并介绍了两种特定于多头注意力的新颖且可解释的延迟控制方法,与最先进的 Milk 方法相比,MMA 具有更好的延迟 - 质量平衡,同时分析了延迟控制对关注范围的影响,通过分析解码器层数和头数对质量和延迟的影响来证明模型的引入。