SHAP-IQ:任意阶 Shapley 交互的统一逼近
TreeSHAP-IQ 是一种高效的方法,用于计算基于树的模型预测的任意阶可加性 Shapley 相互作用,并通过数学框架支持,利用多项式算术在树的单个递归遍历中计算相互作用分数。
Jan, 2024
该研究论文提出了一种对机器学习模型进行解释的方法,通过使用 Shapley value(沙普利价值)和 Shapley Interaction Index(沙普利相互作用指数)来分析黑盒机器学习模型中的信用分配问题,并且给出了一种称为 KernelSHAP-IQ 的方法来解决特征相互作用的问题。
May, 2024
该论文提出一种称为 Shapley-Taylor 指数的方法来解决归因问题,并使用交互分布公理将其公理化,并将其应用于模型中以识别有趣的定性洞见。
Feb, 2019
Shapley 值是一种广泛接受和可信赖的工具,用于解决深度神经网络等黑盒模型所带来的挑战。本研究分析了现有工作的一致性,并推断出随机估计器可以统一为特征子集重要性采样的线性变换。基于此,我们探讨设计简单的摊销估计器的可能性,并提出了一种简单高效的方法 ——SimSHAP,通过消除冗余技术。在表格和图像数据集上进行的大量实验证实了我们的 SimSHAP 的有效性,能够显著加速准确 Shapley 值的计算。
Nov, 2023
本论文提出了 Myerson-Taylor 互动指数,将图结构内化到节点值和节点之间的互动值之中,并使用 Myerson-Taylor 结构感知图解释器(MAGE)基于二阶 Myerson-Taylor 指数识别影响模型预测的最重要模体。通过在各种图数据集和模型上进行广泛实验,我们证明了与现有方法相比,我们的方法始终提供更好的子图解释。
May, 2024
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
我们提出了一种变量重要性度量,基于博弈论中的 Shapley 值,用于量化黑盒函数中各个输入变量的影响。我们的度量基于观察数据分组来计算,连接了可解释 AI 领域的变量重要性度量和全局敏感性分析的函数分解方法,并引入了一个平方 Shapley 值,可以将原来研究中的 Shapley 效应分解到不同的观测数据组之间。
Nov, 2019
通过提出一种名为 ShapG 的新的可解释人工智能 (XAI) 方法,该方法基于 Shapley 值来衡量特征的重要性,本文探讨了人工智能系统的解释和透明度的重要性,并通过与其他 XAI 方法的比较和广泛的实验证明 ShapG 的高效性和可应用性。
Jun, 2024
通过介绍 Asymmetric Shapley values (ASVs) 这种较少限制的框架,本文提出了这种框架可以改善模型解释、为模型预测中的不公平歧视提供测试、在时序模型中支持逐步增量解释以及支持特征选择研究而无需进行模型重新训练。
Oct, 2019
该研究工作将 Shapley value 的公平性要求推广为大概近似 Shapley 公平性,并提出了一个名为 fidelity score 的度量,可以确定公平保证的概率程度。同时,还提出了一种新的贪心主动估计算法(GAE),该算法将最大化最低保真度的值,并利用现实世界的数据集在几种机器学习场景中验证了 GAE 的优越性,既保证了公正性,同时也在估计精度方面具有竞争力。
Dec, 2022