深度视觉建模中可解释人工智能的调查:方法和度量
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
这篇论文探讨了在人工智能中黑盒模型的广泛应用,加强了揭示这些模型是如何做出决策的需求,首先提出一种基于返回信息类型的解释方法分类,展示最近和广泛使用的解释器,通过视觉比较和定量基准测试进行展示。
Feb, 2021
计算机视觉模型的决策过程(尤其是深度神经网络)的不透明性意味着这些决策无法被人类理解。因此,在过去几年中,已经提出了许多提供人理解解释的方法。本文针对图像分类开发了新的评估指标,并对常见的显著性方法在 ImageNet 上进行了基准测试。此外,还提出了一种基于心理测评概念的可靠性评估方案。
Jun, 2024
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
AI 模型的可解释性通常会因降低准确性而受到质疑。我们开发了一种训练策略,不仅提高了目标分类方案的解释性,同时并未降低准确性,实现方式是对决策网络作出决策的可视证据进行区域定位,其表示方法为表征哪些像素对网络决策的贡献最大的显著性图。我们的训练策略通过使模型集中于直接对应于地面目标的图像区域的反馈,在自动和人工指标的量化中量化可解释性,并提出了可解释性作为弥合不同域之间视觉 - 语义差距的手段。我们证明,这种方法不仅提高到新领域的泛化性能,而且不会影响在原始领域上的性能。
Mar, 2020