EMNLPAug, 2019

关注力并非解释

TL;DRAttention mechanisms 在 NLP 系统中扮演着重要角色,在重熙神经网络 (RNN) 模型中特别如此。本研究挑战了最近一篇质疑 “Attention 不是 Explanation” 的论文,并提出了四项替代性测试,以确定 Attention 是否可以用作 Explanation,并为每个测试提供有意义的 Attention 机制解释。最终的解释是此前的研究不能否定 Attention 机制的可解释性。