ACLMay, 2021

多语言神经机器翻译模型是否包含特定于语言的注意力头?

TL;DR通过对 NMT 模型的多个语言对进行实验,本文发现在自我关注和编码器解码器注意头方面的注意力头是对于特定的语言对的翻译比其他更加具有特定性,可以通过指标去评估其注意力权重的一些方面,同时还可以通过评估注意力头相对于翻译质量的重要性来对其进行系统排名,并发现最重要的注意力头在各种语言对中非常相似且几乎可以删除不那么重要的注意头而不严重影响翻译质量。