ShapG:基于 Shapley 值的新特征重要性方法
鉴于人工智能对我们日常生活的影响越来越大,AI 决策的透明性和可解释性变得越来越重要。与全局解释相关的特征的因果关系和预测重要性在全局解释中提供了一种解释人工智能模型的方式,为了更好地理解预测的特征重要性,我们提出了 CAGE (因果感知的 Shapley 值用于全局解释) 方法,通过引入一种尊重输入特征的因果关系的新型取样过程,将因果知识融入全局解释的实践方法中。我们在合成数据和现实世界数据上评估了我们的方法,并证明与以前的全局解释方法相比,我们的方法不仅更直观,而且更可靠。
Apr, 2024
这篇论文提出了一个简单的论点:Shapley 值可能会给出误导性的相对特征重要性量度,从而不仅会将更多的重要性分配给与预测无关的特征,而且会给与与预测相关的特征更少的重要性,这对于高风险应用领域中相对特征重要性的许多提议使用产生了挑战。
Jun, 2023
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023
本研究提出了 GNNShap 方法,通过并行化抽样、批处理加速模型预测,为边提供更自然和细粒度的图解释,克服了样本数有限、速度慢等限制,并在真实数据集上取得了较好的可信度分数和更快的解释。
Jan, 2024
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
在合成孔径雷达(SAR)等风险高、成本高的场景中,可解释的人工智能(XAI)对于提高深度神经网络的透明度和可信度至关重要。Shapley 是一种具有强大数学基础的基于博弈的解释技术。然而,Shapley 假设模型的特征是独立的,这使得高维模型的 Shapley 解释无效。本研究通过将高维特征投影到低维流形特征,并随后获得 Fusion-Shap,引入了一种基于流形的 Shapley 方法,旨在(1)解决传统 Shap 遇到的错误解释问题;(2)解决传统 Shap 在复杂场景中面临的可解释性挑战。
Jan, 2024
本文提出了一个统一的框架和一种新的局部模型无关解释方法 GraphSVX,以解释图神经网络模型的预测结果,并给出了在实际和合成数据集上的实验结果。
Apr, 2021
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024