利用模型结构信息高效计算 SHAP
FastSHAP 是一种使用学习解释器模型在一次正向传递中估计 Shapley 值的方法,通过启发 Shapley 值加权最小二乘估计的学习方法来分摊解释许多输入的成本,并且可以使用标准的随机梯度优化进行训练,与现有的估计方法进行比较,显示出具有高质量解释的数量级加速。
Jul, 2021
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
Shapley 值是一种广泛接受和可信赖的工具,用于解决深度神经网络等黑盒模型所带来的挑战。本研究分析了现有工作的一致性,并推断出随机估计器可以统一为特征子集重要性采样的线性变换。基于此,我们探讨设计简单的摊销估计器的可能性,并提出了一种简单高效的方法 ——SimSHAP,通过消除冗余技术。在表格和图像数据集上进行的大量实验证实了我们的 SimSHAP 的有效性,能够显著加速准确 Shapley 值的计算。
Nov, 2023
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
通过引入马尔可夫视角,我们研究了 SHAP 得分的计算复杂性,并在一些模型类中展示了多项式时间内计算 SHAP 得分的积极复杂性结果,从而超越特征独立性假设的限制。
May, 2024
TreeSHAP-IQ 是一种高效的方法,用于计算基于树的模型预测的任意阶可加性 Shapley 相互作用,并通过数学框架支持,利用多项式算术在树的单个递归遍历中计算相互作用分数。
Jan, 2024
我们提出并研究了使用计算成本较低的回归模型来逼近诸如 SHAP 之类的基于分数解释技术的输出,通过采用归纳符合预测框架提供了对逼近值的有效性保证。我们提出了几种非一致性度量方法,旨在考虑到解释逼近的困难程度同时保持计算成本的低廉。通过大规模实证研究的结果表明,我们提出的模型生成的近似解释在效率(区间大小)方面得到了评估。结果表明,与快速版本的 SHAP TreeSHAP 相比,所提出的方法可以显著提高执行时间。结果还表明,所提出的方法可以产生紧密的区间,同时提供有效性保证。此外,所提出的方法允许比较不同逼近方法的解释,并根据预测区间的信息量(紧密程度)选择一种方法。
Aug, 2023
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018