关于马尔可夫分布下 SHAP 解释的可处理性
本文证明了对于确定性和可分解的布尔电路而言,SHAP 得分可以在多项式时间内计算,而将电路的其中一个属性删除,则计算 SHAP 得分问题将变得棘手(即 #P 难)
Jul, 2020
本文提出了一个基于不明实体群体分布的 SHAP 得分推理的原则性框架,并通过研究函数最大值和最小值的基本问题来确定所有特征的 SHAP 得分的紧密范围,最终通过实验显示我们的框架可以为更稳健的特征评分做出贡献。
Jan, 2024
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
Sep, 2023
我们提出并研究了使用计算成本较低的回归模型来逼近诸如 SHAP 之类的基于分数解释技术的输出,通过采用归纳符合预测框架提供了对逼近值的有效性保证。我们提出了几种非一致性度量方法,旨在考虑到解释逼近的困难程度同时保持计算成本的低廉。通过大规模实证研究的结果表明,我们提出的模型生成的近似解释在效率(区间大小)方面得到了评估。结果表明,与快速版本的 SHAP TreeSHAP 相比,所提出的方法可以显著提高执行时间。结果还表明,所提出的方法可以产生紧密的区间,同时提供有效性保证。此外,所提出的方法允许比较不同逼近方法的解释,并根据预测区间的信息量(紧密程度)选择一种方法。
Aug, 2023
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
本文研究了如何高效地计算机器学习模型中的 Shap 解释得分,通过将二元神经网络转换为确定性和可分解的布尔电路,并利用知识编译技术,将所得到的电路作为开放框模型来计算 Shap 分数,与将 BNN 作为黑盒模型直接计算 Shap 相比,在性能上有相当大的提升。
Mar, 2023
本文介绍了一种 Shapley-based 方法 GRAPHSHAP,它可以对黑盒图分类器提供基于模体的解释;并在具有自闭症谱系障碍和对照组的真实大脑网络数据集上进行了测试,证明该方法可以有效地解释黑盒分类器所提供的分类结果。
Feb, 2022
在本研究中,我们对一种名为 SHAP 的解释方法进行人本评估,该方法已在可解释人工智能和相关社区中广受欢迎。我们研究了这种局部规范无关解释方法是否对实际的人类领域专家有用,以评估分类器产生的正面预测的正确性。结果表明,SHAP 解释确实影响决策过程,尽管该方法得分的置信度仍然是主要的证据来源。但在我们的实验中,当提示信息可用时,与不提供提示信息相比,在警报处理性能方面并没有明显差异。
Jul, 2019
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017