ACLApr, 2020

透明可解释的注意力模型

TL;DR本文研究基于 LSTM 的编码器的注意力机制的可解释性问题,发现现有的注意力机制不能提供清晰的解释,因为同步隐藏状态之间的高相关性使得注意权重缺乏了传达重要信息的能力。为了使注意力机制更为可信和可解释,作者提出一种基于多样性驱动的训练目标修改 LSTM 结构,实现不同时步的隐藏状态的多样化,以提高注意力分布的质量和可解释性。