简洁的互动感知解释
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
Sep, 2023
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022
在本研究中,我们对一种名为 SHAP 的解释方法进行人本评估,该方法已在可解释人工智能和相关社区中广受欢迎。我们研究了这种局部规范无关解释方法是否对实际的人类领域专家有用,以评估分类器产生的正面预测的正确性。结果表明,SHAP 解释确实影响决策过程,尽管该方法得分的置信度仍然是主要的证据来源。但在我们的实验中,当提示信息可用时,与不提供提示信息相比,在警报处理性能方面并没有明显差异。
Jul, 2019
本文介绍了一种 Shapley-based 方法 GRAPHSHAP,它可以对黑盒图分类器提供基于模体的解释;并在具有自闭症谱系障碍和对照组的真实大脑网络数据集上进行了测试,证明该方法可以有效地解释黑盒分类器所提供的分类结果。
Feb, 2022
通过引入马尔可夫视角,我们研究了 SHAP 得分的计算复杂性,并在一些模型类中展示了多项式时间内计算 SHAP 得分的积极复杂性结果,从而超越特征独立性假设的限制。
May, 2024
这篇论文研究了机器学习技术中局部后解释性方法的不稳定性问题,提出了通过改进确定邻居选取的方法以解决不稳定性问题,同时通过限制邻居生成的扰动范围得到了一种全新的特征归因方法。
Dec, 2023
为了解释预测模型,我们提出了一种基于模型的 SHapley Additive exPlanation (SHAP) 的技术,利用神经网络方法高效计算神经网络和回归模型的条件版本,并恰当考虑特征分量的依赖结构,此方法在复杂回归模型中提供了 drop1 和 anova 分析,并通过 partial dependence plot (PDP) 对特征分量的正确依赖结构进行建模。
Jul, 2023
我们提出并研究了使用计算成本较低的回归模型来逼近诸如 SHAP 之类的基于分数解释技术的输出,通过采用归纳符合预测框架提供了对逼近值的有效性保证。我们提出了几种非一致性度量方法,旨在考虑到解释逼近的困难程度同时保持计算成本的低廉。通过大规模实证研究的结果表明,我们提出的模型生成的近似解释在效率(区间大小)方面得到了评估。结果表明,与快速版本的 SHAP TreeSHAP 相比,所提出的方法可以显著提高执行时间。结果还表明,所提出的方法可以产生紧密的区间,同时提供有效性保证。此外,所提出的方法允许比较不同逼近方法的解释,并根据预测区间的信息量(紧密程度)选择一种方法。
Aug, 2023