基线 Shapley 解释性探测器
在合成孔径雷达(SAR)等风险高、成本高的场景中,可解释的人工智能(XAI)对于提高深度神经网络的透明度和可信度至关重要。Shapley 是一种具有强大数学基础的基于博弈的解释技术。然而,Shapley 假设模型的特征是独立的,这使得高维模型的 Shapley 解释无效。本研究通过将高维特征投影到低维流形特征,并随后获得 Fusion-Shap,引入了一种基于流形的 Shapley 方法,旨在(1)解决传统 Shap 遇到的错误解释问题;(2)解决传统 Shap 在复杂场景中面临的可解释性挑战。
Jan, 2024
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
提出了一种名为 XPose 的新型框架,将可解释人工智能(XAI)原则融入姿态估计中,通过 Group Shapley Value(GSV)的创新概念和基于群组的关键点删除(GKR)数据增强技术,优化计算效率并改进模型的预测能力,从而有效提升姿态估计模型的透明度和可解释性。
Mar, 2024
本文介绍了一种名为 Black-box Object Detection Explanation by Masking (BODEM) 的黑盒目标检测解释方法,该方法采用了一种新的掩蔽方法来提高可解释性,并能用于提高检测精度和稳健性。
Mar, 2023
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
Shapley value explanations are less precise for observations on the outer region of the training data distribution, which has not been systematically addressed in the Shapley value literature.
Dec, 2023
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
鉴于人工智能对我们日常生活的影响越来越大,AI 决策的透明性和可解释性变得越来越重要。与全局解释相关的特征的因果关系和预测重要性在全局解释中提供了一种解释人工智能模型的方式,为了更好地理解预测的特征重要性,我们提出了 CAGE (因果感知的 Shapley 值用于全局解释) 方法,通过引入一种尊重输入特征的因果关系的新型取样过程,将因果知识融入全局解释的实践方法中。我们在合成数据和现实世界数据上评估了我们的方法,并证明与以前的全局解释方法相比,我们的方法不仅更直观,而且更可靠。
Apr, 2024
本文提出了一种新的解释技术,称为 SHifted Adversaries using Pixel Elimination (SHAPE),并证明了它是一种对常用重要性基于视觉 XAI 方法进行鲁棒性和可靠性度量的对抗性解释,相比于 GradCAM 和 GradCAM ++ 等流行解释技术,在这些测试中,SHAPE 表现更好,并引发了与这些度量标准以及人的参与评估的整体改进的问题。
Jun, 2024
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024