忠实关注解释器:基于辨别特征的决策语言化
Attention mechanisms在NLP系统中扮演着重要角色,在重熙神经网络(RNN)模型中特别如此。本研究挑战了最近一篇质疑“Attention不是Explanation”的论文,并提出了四项替代性测试,以确定Attention是否可以用作Explanation,并为每个测试提供有意义的Attention机制解释。最终的解释是此前的研究不能否定Attention机制的可解释性。
Aug, 2019
本研究提出一种简单方法,通过训练模型生成欺骗性的注意力掩码,从而质疑注意机制的可靠性,因为通过操纵注意权重,即使我们可以证明模型仍然依赖这些特征来驱动预测,我们的方法会减少指定的不允许的标记被分配的总权重。通过人类研究,我们展示了我们操作注意力的解释会欺骗人们认为偏见的模型的预测不依赖性别,从而对注意力在公平性和问责制的算法审计工具上的可靠性产生怀疑。
Sep, 2019
本文研究基于LSTM的编码器的注意力机制的可解释性问题,发现现有的注意力机制不能提供清晰的解释,因为同步隐藏状态之间的高相关性使得注意权重缺乏了传达重要信息的能力。为了使注意力机制更为可信和可解释,作者提出一种基于多样性驱动的训练目标修改LSTM结构,实现不同时步的隐藏状态的多样化,以提高注意力分布的质量和可解释性。
Apr, 2020
探究利用自然语言解释来监督模型的注意力权重,促使其更集中于解释中的关键词,从而提高模型性能,此方法的实验表明,这种改进可以适用于其它NLI数据集
Apr, 2021
本文提出了一种新型的TaSc机制,学习任务特定的非上下文信息以扩展原始的Attention权重,通过评估测试,证明TaSc可以提高Attention解释在两种注意机制,五个编码器和五个文本分类数据集上的解释 品质而不牺牲预测性能,并且相对于三种广泛使用的可解释性技术,TaSc一致提供更加忠实的Attention解释。
May, 2021
通过研究用于文本数据的基于显著性的解释,本研究调查了多种因素(如输入,解释和可视化方式)对普通人理解解释的影响,并发现类似单词长度等表面和不相关的因素会影响解释的理解,但通过基于模型评估的方法,可以提高人们的理解能力。
Jan, 2022
本文发现注意力解释的一个关键限制:弱点在于识别特征影响的极性。为此,作者提出了一个行动诊断方法来量化解释权重与影响极性之间的一致性,并通过大量实验表明,大多数测试的解释方法都意外受到忠诚度违反问题的阻碍,特别是原始的关注力。
Jan, 2022
本文在两种NLP任务和两种模型上,比较了五种最近的特征归属方法和两种注意力方法之间的等级相关性,并发现注意力方法与其他特征归属方法的关联度较低,建议停止使用等级相关性作为注意力解释的评估指标。
May, 2022
本文探讨了目前逐渐普及应用的神经模型的透明度和可理解性的需求,提出了三种可信度测量方法,并在对不同模型架构的比较中使用VQA-X和e-SNLI-VE数据集进行了评估。
Apr, 2023
研究将人的注意力知识融入到基于显著性的XAI(可解释人工智能)方法中,以增强计算机视觉模型的合理性和可靠性,并开发了新的基于梯度的XAI方法来生成物体特定的解释,并使用可训练的激活函数和平滑核来最大化XAI显著图与人类注意图的相似性,从而在物体检测模型中同时提高了可靠性和合理性。
May, 2023