CLIMAX:分类器基于对比解释的探索
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
本文介绍了一种基于 Venn-Abers 的新型特征重要性解释方法 Calibrated Explanations,该方法能校准底层模型、生成特征重要性解释并对概率估计和特征重要性权重进行不确定性量化。此外,该方法对模型没有偏见、规则易于理解、可生成反事实解释和不确定性量化。
May, 2023
通过用户互动,我们提出了一种基于互动的可解释的 AI 方法,通过修改图像来观察分类结果的变化,使用户能够辨别影响模型决策过程的关键特征,从而将他们的心智模型与模型逻辑对齐。该方法通过用户参与和理解为可解释的 AI 系统提供了更直观和易于访问的方式。
Apr, 2024
提出了一种名为 XAI Test 的应用基准评估方法,旨在评估不同水平的信息提供对最终决策的影响,针对现实世界的欺诈检测任务进行了实验,并使用多种统计方法分析了三种热门解释器的影响。
Jan, 2021
本次研究使用决策影响分析的方法,提出了两个指标来量化深度神经网络的可解释性方法的性能,并对几种最先进的解释性方法(LIME,SHAP,Expected Gradients,GSInquire)在 ResNet-50 深度卷积神经网络上进行了全面分析。实验结果表明,受测试图像中由 LIME 确定的关键区域对网络的决策过程的影响最小,SHAP,Expected Gradients 和 GSInquire 的影响逐渐增加,提出的机器 - 中心策略有助于推进评估可解释性方法的更好度量和提高深度神经网络的信任度。
Oct, 2019
研究使用背景知识使得可解释的人工智能更简洁易懂,并使用现有的规则归纳技术从数据集中提取背景信息来做出预测并报告使用的背景信息,帮助人类检查解释的正确性。
Jun, 2022
我们介绍了一个使用可解释的人工智能(XAI)的智能系统(CL-XAI)用于认知学习的研究,其两个主要目标是探索人类学习者如何理解使用 XAI 工具的人工智能模型的内部机制,并通过人类反馈评估这些工具的有效性。使用 CL-XAI 在一个基于游戏的虚拟案例中说明了其应用,学习者通过解决组合问题来增强解决问题的能力和加深对复杂概念的理解,突出了认知学习和协同学习中潜在的转变性进展。
Dec, 2023