基于显著性的可解释性方法评估
本文研究使用的 CNN 在一些图像分类问题中表现非常好,但是解释 CNN 的操作是非常困难的。因此,本文提出了一种新型的解释算法,称为 LRP 算法,通过人机交互的方式发现这种算法被用于图像分类问题的特定图像特征敏感性,并针对该方法进行了用户评估。评估结果表明,该算法可以帮助参与者学习一些系统对特定图像特征的敏感性,但是对于新图像的分类任务提供的帮助似乎非常有限。因此,HCI 和人工智能社区需要超越实例级别的解释算法,继续研究解释 AI 的设计和进一步研究的问题。
Feb, 2020
本文基于对解释人工智能(XAI)的准确定义和公正衡量标准缺失的讨论,提出了一种广泛的实验研究,重点关注解释方法的忠实度、本地化、假阳性、敏感度检查和稳定性。实验结果表明,在当前所有方法中,梯度加权类激活映射(Grad-CAM)和随机输入抽样解释(RISE)在大多数指标上表现良好。另外,本文还提出了一种筛选指标的方法,以诊断模型分类基础,并探讨了当前指标所忽略的测量因素。
Dec, 2020
计算机视觉模型的决策过程(尤其是深度神经网络)的不透明性意味着这些决策无法被人类理解。因此,在过去几年中,已经提出了许多提供人理解解释的方法。本文针对图像分类开发了新的评估指标,并对常见的显著性方法在 ImageNet 上进行了基准测试。此外,还提出了一种基于心理测评概念的可靠性评估方案。
Jun, 2024
本文对几种显著性方法进行实验和理论探索,提出用可行的方法来评估一种方法所能提供和不能提供的解释类型。实验证明,有些现有的显著性方法具有独立性,这些方法不受模型和数据生成过程的影响,因此,那些未通过所提出测试的方法,对于对数据或模型敏感的任务( 如在数据中找到异常值,解释模型所学到的输入和输出之间的关系以及调试模型)是不适当的。与边缘检测类比,本文发现一些显著性方法无需训练数据或模型就能有效实现其功能。
Oct, 2018
68 个用户研究的系统综述发现,显著性图可以增强人类表现,但也常见到零效应甚至负效应。这些效应受多个因素的调节,包括人类任务、AI 性能、XAI 方法、待分类的图像、人类参与者和比较条件等。图像任务中的效益不如 AI 任务中常见,但效果取决于具体的认知需求。此外,效益通常局限于 AI 任务中的错误预测,而在图像任务中局限于正确预测。与 XAI 相关的因素影响较小。对于图像和人类相关的因素,证据有限且效应高度依赖于比较条件。这些发现可能有助于未来用户研究的设计。
Apr, 2024
研究将人的注意力知识融入到基于显著性的 XAI(可解释人工智能)方法中,以增强计算机视觉模型的合理性和可靠性,并开发了新的基于梯度的 XAI 方法来生成物体特定的解释,并使用可训练的激活函数和平滑核来最大化 XAI 显著图与人类注意图的相似性,从而在物体检测模型中同时提高了可靠性和合理性。
May, 2023
通过用户研究,本研究评估了可解释人工智能在实际场景中对人类决策的改进效果,结果发现虽然解释有助于用户更准确地描述模型,但对于模型选择和反事实模拟这两个任务,并没有找到使用任何显著改进的证据,这表明对基于显著性的解释的实用性和可能的误解需要谨慎对待。
Dec, 2023
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
通过引入一种后置方法,我们解释了卷积神经网络的整个特征提取过程,并包含了一组通过众包活动和自然语言处理技术提取并处理的文本标签,在多幅图像中聚合标签以生成全局解释。
May, 2024