KDDJun, 2020

为什么关注机制可能无法解释?

TL;DR本文讨论了 Attention-based methods 在模型中的解释性作用,指出了 recent research 发现的 attention-as-importance interpretations 的局限性,即注意力权重本身可能具有额外的信息导致现象的发生,我们通过理论分析和实验展示了这个问题的存在,提出了两种缓解这个问题的方法,并在实验中证明这些方法能有效地提高 Attention 机制的可解释性。