Sep, 2018

多头注意力机制下的神经机器翻译中的对齐问题

TL;DR本研究旨在调查基于 Transformer 架构的多头注意力模型中的对齐问题,并证明了通过增加一个额外的对齐头可以提高 Transformer 模型的对齐抽取。通过字典引导翻译任务的模拟,我们使用所提出的方法,在与基准情况相比,使用字典时 BLEU 分数提高了 3.8%,而基准情况下提高了 2.4%的 BLEU 分数。我们还提出了对齐剪枝来加速解码,从而在保持翻译性能不变的情况下,将翻译加速了 1.8 倍。