XRAI:通过区域获取更好的归因
本文基于对解释人工智能(XAI)的准确定义和公正衡量标准缺失的讨论,提出了一种广泛的实验研究,重点关注解释方法的忠实度、本地化、假阳性、敏感度检查和稳定性。实验结果表明,在当前所有方法中,梯度加权类激活映射(Grad-CAM)和随机输入抽样解释(RISE)在大多数指标上表现良好。另外,本文还提出了一种筛选指标的方法,以诊断模型分类基础,并探讨了当前指标所忽略的测量因素。
Dec, 2020
本文提出了一种结合梯度和属性方法的算法来提供逐类的可解释性,该算法在纠正显著特征的同时,通过反向投影来提供每像素的局部影响,并成功地证明了在各种基准测试上的优越性能,包括用于梯度方法评估的基准测试以及主要用于评估属性方法的基准测试,此外,本文还成功地证明了自监督方法可以学习语义信息。
Dec, 2020
计算机视觉模型的决策过程(尤其是深度神经网络)的不透明性意味着这些决策无法被人类理解。因此,在过去几年中,已经提出了许多提供人理解解释的方法。本文针对图像分类开发了新的评估指标,并对常见的显著性方法在 ImageNet 上进行了基准测试。此外,还提出了一种基于心理测评概念的可靠性评估方案。
Jun, 2024
该论文提出了一种基于区域的方法来估计图像中特征的重要性,利用多尺度分割产生更具类别区分度和视觉效果的显著图,通过对输入图像进行多尺度分割来构建一个正态分布,并对边界先验进行仿真,证明该方法比传统方法更有效。
Jul, 2018
在黑盒神经网络的基础上,通过训练第二个网络来预测对预备的黑盒分类器的贡献,并将这些贡献以只显示与分类器相关部分的蒙版的形式提供,我们的方法可以直接在单个前向传递中生成非常明显的类特定蒙版。
May, 2022
研究将人的注意力知识融入到基于显著性的 XAI(可解释人工智能)方法中,以增强计算机视觉模型的合理性和可靠性,并开发了新的基于梯度的 XAI 方法来生成物体特定的解释,并使用可训练的激活函数和平滑核来最大化 XAI 显著图与人类注意图的相似性,从而在物体检测模型中同时提高了可靠性和合理性。
May, 2023
本文通过量化评估解释性人工智能技术对遥感图像分类的影响,深入分析了不同类型模型选用 XAI 方法所获得的结果,提供了选择最合适的解释性方法来了解模型决策过程的建议和见解。
Jun, 2023
本文对几种显著性方法进行实验和理论探索,提出用可行的方法来评估一种方法所能提供和不能提供的解释类型。实验证明,有些现有的显著性方法具有独立性,这些方法不受模型和数据生成过程的影响,因此,那些未通过所提出测试的方法,对于对数据或模型敏感的任务( 如在数据中找到异常值,解释模型所学到的输入和输出之间的关系以及调试模型)是不适当的。与边缘检测类比,本文发现一些显著性方法无需训练数据或模型就能有效实现其功能。
Oct, 2018