遥感图像分类的一次属性可解释人工智能方法的定量分析
通过适应最近的 XAI 分类算法并将它们用于多类别图像分割,本文着重于对高分辨率卫星图像中的建筑物分割的研究,引入了一种基于 “熵” 来衡量模型不确定性的新的 XAI 评估方法和指标,以此来提供透明度和可解释性,为图像分割领域的 XAI 研究和遥感应用铺平道路。
Oct, 2023
提出了一种可验证深度学习模型准确性的可解释人工智能方法(XAI)——“我知道什么(WIK)”,通过在遥感图像分类任务中演示一个与要推理的输入数据类似的训练集实例来提供附加信息。该方法能够检查所选示例数据是否足够支持每个推断以及训练数据集是否具有不同于输入数据特征分布的功能,其可用于各种分类和回归等机器学习任务。
Feb, 2023
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
本文比较了 14 个不同的评估指标在 9 种最先进的 XAI 方法和 3 种用作参考的虚拟方法(如随机显著性图)上的应用结果,结果表明其中一些指标会产生高度相关的结果,还展示了基准超参数变化对评估指标值的显著影响,最后使用虚拟方法评估指标的可靠性及其排名方面的限制。
May, 2023
本文分析了解释性人工智能(XAI)领域中用户研究的质性调查,提出通过社会科学语料库的方式,改进 XAI 研究者使用观察、访谈、焦点小组和 / 或问卷捕捉质性数据的研究索求。文章根据质性研究文献中所描述的相关要素上下文化呈现 XAI 论文的研究成果:1)基础理论或框架,2)方法论方法,3)数据收集方法和 4)数据分析过程。分析结果支持 XAI 社区中其他研究者的呼吁,倡导与社会学科领域的专家合作以加强用户研究的严谨性和有效性。
Nov, 2020
文章讨论了机器学习模型解释性和可解释性的多方面问题,并提出了 12 个概念性属性,如紧凑性和正确性来全面评估解释的质量。文章还提供了定量 XAI 评估方法的广泛概述,以及提供了创新的库和方法帮助研究人员和从业者彻底验证、基准测试和比较新的和现有的 XAI 方法。
Jan, 2022
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023