关于修正 SHAP 分数
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023
该论文证明了存在着布尔函数,其中 Shapley 值提供了关于特征相对重要性的误导信息,相关的问题归结为与预测相关的特征的相关性或无关性,并且所有这些问题都与 Shapley 值在基于规则的可解释性方面的不足性有关。该论文通过证明,对于任意数量的特征,存在显示一种或多种揭示不足问题的布尔函数,从而为特征归属方法的理论基础中的 Shapley 值的使用提供决定性的反对理由。
Sep, 2023
本文提出了一个基于不明实体群体分布的 SHAP 得分推理的原则性框架,并通过研究函数最大值和最小值的基本问题来确定所有特征的 SHAP 得分的紧密范围,最终通过实验显示我们的框架可以为更稳健的特征评分做出贡献。
Jan, 2024
最近的研究表明 Shapley 值对于可解释的人工智能(XAI)是不足够的,本文通过对特征既非布尔型又能选择多个类别的分类器家族的研究,进一步证明了 Shapley 值在 XAI 中的不适用性,并展示了在任何最小 l0 距离对抗样本中发生变化的特征都不包括无关特征,从而提供了更多关于 Shapley 值在 XAI 中的不足的论证。
Sep, 2023
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
在本研究中,我们对一种名为 SHAP 的解释方法进行人本评估,该方法已在可解释人工智能和相关社区中广受欢迎。我们研究了这种局部规范无关解释方法是否对实际的人类领域专家有用,以评估分类器产生的正面预测的正确性。结果表明,SHAP 解释确实影响决策过程,尽管该方法得分的置信度仍然是主要的证据来源。但在我们的实验中,当提示信息可用时,与不提供提示信息相比,在警报处理性能方面并没有明显差异。
Jul, 2019
我们提出并研究了使用计算成本较低的回归模型来逼近诸如 SHAP 之类的基于分数解释技术的输出,通过采用归纳符合预测框架提供了对逼近值的有效性保证。我们提出了几种非一致性度量方法,旨在考虑到解释逼近的困难程度同时保持计算成本的低廉。通过大规模实证研究的结果表明,我们提出的模型生成的近似解释在效率(区间大小)方面得到了评估。结果表明,与快速版本的 SHAP TreeSHAP 相比,所提出的方法可以显著提高执行时间。结果还表明,所提出的方法可以产生紧密的区间,同时提供有效性保证。此外,所提出的方法允许比较不同逼近方法的解释,并根据预测区间的信息量(紧密程度)选择一种方法。
Aug, 2023
本文提出了一种新的 SHAP 方法,Counterfactual SHAP,以增强和澄清可操作性和特征归因之间的联系,通过使用反事实信息构建背景数据集,在许多合成示例中展示了 Shapley 值在可操作性场景中仔细考虑背景数据集的必要性,并提出了一种新的量化分数 counterfactual-ability 来衡量特征归因的性能。
Oct, 2021
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024