Shapley 协同精炼解释黑盒决策
使用合作谢普利方法(Cohort Shapley)来验证黑盒预测算法的重要变量,并通过经济博弈理论来量化变量的重要性。该方法可以用于算法公平性问题,以确定受保护变量的重要性,并通过贝叶斯自助法估计 Shapley 值的不确定性。
May, 2022
本文介绍了使用 Shapley 值来量化函数中随机输入变量的重要性,并探讨了基于 ANOVA 分解的替代方案在输入变量存在相关性时存在的概念和计算问题。通过一些简单的示例,我们说明 Shapley 值可以消除这些问题并产生直观合理的闭式数值。
Oct, 2016
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
采用博弈论方法计算机器学习模型特征重要性的数学问题存在和 Shapley 值并不能很好地解释人类可解释目标的论证以及需要因果推理等技术增加复杂性。
Feb, 2020
本文提出了一个称为集体 Shapley(CS)方法,具有指数成本,以及需要第二个黑匣子模型作为输入的受监督的流形 Shapley 方法。并且引入了一种名为 IGCS 的集成梯度版本的 cohort Shapley,通过某些曲线下面积度量证明其性能与 CS 几乎相同。
Nov, 2022
本文探讨了 Shapley 值在贝叶斯网络框架下的应用,分析了 Shapley 值与条件独立性的关系,并发现高 Shapley 值的变量不一定对模型预测性能有显著影响,而低 Shapley 值的变量可能会导致较差的预测结果。因此,在一般情况下,使用 Shapley 值进行特征选择并不一定能建立起最简单和预测性最优的模型,而且 Shapley 值不反映变量与目标之间的因果关系。
Aug, 2020
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文提出了 Shapley 值在朴素贝叶斯分类器中的确切分析表达式,并对其与证据权重和 KernelShap 在实际数据集上的结果进行了比较,结果表明我们的 Shapley 方案在算法复杂度低的情况下提供了具有信息量的结果,可以在大规模数据集上以极低的计算时间使用。
Jul, 2023
本文提出了一种新的算法方法,将 Shapley 值中两种不同的解释组合在一起,以增强模型的说明能力,并在两个真实世界的数据集上应用。
Jun, 2023
Shapley value explanations are less precise for observations on the outer region of the training data distribution, which has not been systematically addressed in the Shapley value literature.
Dec, 2023