AS-XAI: 卷积神经网络的自我监督自动语义解释
本文提出了语义可解释人工智能(S-XAI)框架,利用基因算法发现的最佳超像素的共同特征和可视化技术提取了理解的语义空间,同时提供了语义空间的统计解释和语义概率的概念。实验结果表明,S-XAI 在为 CNN 提供更好的语义解释方面是有效的,具有广泛的应用价值,包括可信度评估和语义样本搜索。
Apr, 2022
这篇论文针对 XAI 在语义图像分割中的应用,提出了第一份全面的综述。文章对应用类别、领域、评估指标和数据集进行了分析和分类,并提出了可解释的语义分割的分类体系,讨论了潜在的挑战和未来研究方向。
May, 2024
通过适应最近的 XAI 分类算法并将它们用于多类别图像分割,本文着重于对高分辨率卫星图像中的建筑物分割的研究,引入了一种基于 “熵” 来衡量模型不确定性的新的 XAI 评估方法和指标,以此来提供透明度和可解释性,为图像分割领域的 XAI 研究和遥感应用铺平道路。
Oct, 2023
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
通过形式化说明解释是什么,提出一些公理和定义来澄清可解释的人工智能的数学角度。最后,我们提出了一个 Greybox XAI 框架,该框架通过使用符号知识库将 DNN 和透明模型组成。我们从数据集中提取知识库,并使用它来训练透明模型(即逻辑回归)。然后,我们在 RGB 图像上训练编码器 - 解码器架构,以产生类似于透明模型使用的知识库的输出。一旦两个模型独立地训练好后,它们就在组成的形式上用于形成可以解释的预测模型。我们展示了这种新的架构在几个数据集中是准确的和可以解释的。
Sep, 2022
通过使用基于 CAM 的解释来完善语义分割模型,本研究提出了提升视觉质量检测系统的框架。该框架包括模型训练、基于 XAI 的模型解释、XAI 评估和注释增强等步骤,通过解释和专家洞见进行指导。评估结果表明,基于 XAI 的模型在复杂目标分割方面优于原始的 DeepLabv3-ResNet101 模型。
Jan, 2024
通过数据挖掘方法和应用的角度,对深度神经网络进行可解释人工智能(XAI)的综合、数据中心的研究,并将现有工作分为三类:对深层模型的解释、对训练数据的影响以及领域知识的洞察。
Jan, 2024
人工智能(AI)目前主要基于黑箱机器学习模型,缺乏可解释性,解释性人工智能(XAI)的研究旨在解决这一主要问题;本论文提出一种基于范畴论的定义 AI 模型及其可解释性的方法,通过使用组合模型的概念,以形式化的字符串图表达抽象结构和具体实现,包括确定性、概率性和量子模型,并比较了广泛的 AI 模型作为组合模型,包括线性模型、基于规则的模型、(循环)神经网络、变换器、VAEs 以及因果图和 DisCoCirc 模型;定义了模型的解释性,演示如何分析模型的可解释性,并用此来阐明 XAI 中的共同主题;发现标准的 “本质可解释性” 模型在图表中展示得最清晰,从而引出了更一般的组合可解释(CI)模型的概念,其中还包括因果性、概念空间和 DisCoCirc 模型;演示了 CI 模型的可解释性益处,包括通过组合结构计算其他感兴趣量,通过匹配结构实现从模型到被模拟现象的推理,以及基于影响约束、图表手术和重写解释的图表解释行为;最后讨论了该方法的未来发展方向,提出了如何在实践中学习这种有意义结构的模型的问题。
Jun, 2024