SHAP 解释的可处理性研究
通过引入马尔可夫视角,我们研究了 SHAP 得分的计算复杂性,并在一些模型类中展示了多项式时间内计算 SHAP 得分的积极复杂性结果,从而超越特征独立性假设的限制。
May, 2024
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
Sep, 2023
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
本文证明了对于确定性和可分解的布尔电路而言,SHAP 得分可以在多项式时间内计算,而将电路的其中一个属性删除,则计算 SHAP 得分问题将变得棘手(即 #P 难)
Jul, 2020
本文提出了一个基于不明实体群体分布的 SHAP 得分推理的原则性框架,并通过研究函数最大值和最小值的基本问题来确定所有特征的 SHAP 得分的紧密范围,最终通过实验显示我们的框架可以为更稳健的特征评分做出贡献。
Jan, 2024
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
在本研究中,我们对一种名为 SHAP 的解释方法进行人本评估,该方法已在可解释人工智能和相关社区中广受欢迎。我们研究了这种局部规范无关解释方法是否对实际的人类领域专家有用,以评估分类器产生的正面预测的正确性。结果表明,SHAP 解释确实影响决策过程,尽管该方法得分的置信度仍然是主要的证据来源。但在我们的实验中,当提示信息可用时,与不提供提示信息相比,在警报处理性能方面并没有明显差异。
Jul, 2019
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024