- 图像解释的分类评估指标:构建可靠的可解释性人工智能评估
计算机视觉模型的决策过程(尤其是深度神经网络)的不透明性意味着这些决策无法被人类理解。因此,在过去几年中,已经提出了许多提供人理解解释的方法。本文针对图像分类开发了新的评估指标,并对常见的显著性方法在 ImageNet 上进行了基准测试。此 - 利用激活进行超像素解释
研究利用神经网络图像分类器的激活来提取显著性方法的分割,以改善物体定位性能并评估显著性方法的语义一致性。
- SE3D:三维成像中显著性方法评估的框架
提出了 SE3D:一个用于评估三维图像显著性方法的框架,通过修改数据集和评估指标来评估适用于三维卷积神经网络的显著性方法,结果表明当前的三维显著性方法质量不够,对于未来改进和在关键领域中更安全地应用三维卷积神经网络提供了潜在空间。
- 基于原型的图像分类中的补丁可视化的合理性检查
通过对 ProtoPNet 和 ProtoTree 中实现的可视化方法进行分析,我们发现这些方法无法正确地识别图像中的感兴趣区域,从而无法反映模型的行为,这可能导致对模型存在偏见的错误观念。我们还定量地证明,通过使用其他提供更准确图像补丁的 - COSE: 图像分类中一种用于显著性的一致性敏感度度量
我们提出了一套利用视觉先验来有效评估显著性方法在图像分类任务中性能的度量标准。通过我们的度量标准,我们发现,虽然人们认为显著性方法与架构无关,但大多数方法更能解释基于变形器的模型而不是基于卷积的模型。此外,我们发现 GradCAM 在 CO - 解释目标检测器的显著性方法的合理性检查
通过对 Saliency methods 在各种目标检测模型中的应用,以及 Guided Backpropagation、Integrated Gradients,以及它们的 Smoothgrad 版本等 saliency 方法的新定性标准 - AAAI重新思考解释:深度视觉分类器的输入无关性显著性映射
本文提出了一种新的输入无关的显著性地图方法,它从计算上估计模型对其输出所归属的高级特征并通过可解释的可视化展示,以更加准确和公正地解释模型的行为,同时在大规模模型中成功应用,并且通过识别受损分类器中的后门签名,展示了这种新形式显著性映射的另 - 原型图像分类中补丁可视化的合理性检查和改进
本文深入分析了两种流行的自说明模型 ——ProtoPNet 和 ProtoTree 的可视化方法,并使用细粒度数据集进行了验证。通过删除指标的定量证明,证明了 Smoothgrads 或 PRP 等显著性方法提供了更准确的图像补丁,并提出了 - 易于决定、难于协定:减少显著性方法之间的分歧
本研究探讨了神经 NLP 模型的黑匣子问题,发现排名相关性不适合于评估解释方法的一致性,提出了一个更加适合的选项 Pearson-r;通过研究 Easy-to-learn instances 的特点,我们发现增加信赖度可以提高解释方法之间的 - 深度 Taylor 分解的严格研究
探究了 Deep Taylor Decomposition 理论中的参数选择对于算法效果的影响,发现当用户所选用的 Taylor 根点是局部常数时,DTD 等价于基本的梯度乘输入方法。在这种情况下,该理论是欠约束的,需要注意其可靠性。
- 基于显著性引导训练的深度学习解释性改进
本文介绍了一种基于显著性引导培训的神经网络方法,可以有效降低噪声导致的特征归因不准确,并通过实验表明这种方法能够在保持预测性能的同时提高模型可解释性。
- ICML显著性方法的稳定性模拟
本文提出了一种综合评估图像中 “重要” 像素的方法 SMERF,并基于该方法评估了现有 Saliency 方法。通过实验结果表明,这些 Saliency 方法有着诸多限制,并提出了发展新的 Saliency 方法的参考意见。
- ACL评估神经语言模型的显著性方法
本文通过对 NLP 模型的神经语言进行全面的定量评估,从两个方面评价了预测解释的质量:可信度和可信度。通过评估,我们发现,如何在给定相同模型和预测时,不同的显着性方法经常在解释上产生分歧。作者建议部署此类方法到神经语言模型的未来工作,应该在 - ICML基于梯度的显著性方法中正向聚合和梯度传播的重新思考
本篇文献探讨了一种用于解释神经网络预测结果的显著性方法,并发现使用两种处理梯度信息的方法会破坏这些方法,提出了几种正向处理梯度信息的聚合方法,并显示了仅传播正向梯度信息会产生破坏性影响。
- 在时间序列预测中进行深度学习可解释性基准测试
本篇论文研究了基于 saliency 的可解释性方法在时间序列数据上的应用,提出并比较了多种 saliency 方法在不同神经网络结构上的性能,并提出多种指标进行评估,发现常规的网络结构和 saliency 方法难以可靠和精确地识别时间序列 - 基于梯度的方法解释 3D 点云特征
本文主要研究神经网络在 3D 数据中的可解释性和稀疏性,提出了一种基于边缘和角点的视觉显著性方法并成功地在 Voxception-ResNet(一种基于体素的分类网络)上实现了参数精简.
- CVPR重访反向传播显著性方法
本文通过分析反向传播型显著性方法,提出了一个框架,将多种方法统一起来,进而提出了一个新的基于空间梯度特征的显著性方法 - NormGrad,并通过将不同层的显著图进行结合,测试不同层级网络提取信息的能力,并且引入了一个类别敏感指标和元学习方 - NormGrad:寻找训练中有用的像素
该论文提出了一种基于卷积层的梯度求和公式的权重归因方法,并通过元学习方法确定模型训练的相关位置,同时也展示了相似元学习方法可用于提取对模型有负面影响的对抗位置。
- 语义分割的网格显著性作为上下文解释
研究使用网格显著性来提供简单的语义分割网络的解释,该方法可以成功地用于检测和定位数据中存在的语境偏差。
- XRAI:通过区域获取更好的归因
本文提出了一种基于区域的新型归因方法 XRAI,介绍了评估方法 PICs,并且通过实验展示在常见模型和 ImageNet 数据集上,XRAI 比其他显著性方法产生更好的结果。