模型解释的多个 Shapley 值
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文提出了一种基于中立值选择基线的解释方法,该基线的选择取决于模型的实际运用,从而验证该基线的有效性。
Jun, 2020
本文介绍了合作博弈理论的基本概念以及 Shapley value 的公理性质,概述了其在机器学习中的最重要应用:特征选择,可解释性,多智能体强化学习,集成修剪和数据估价,指出了 Shapley value 的主要局限性和未来研究方向。
Feb, 2022
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
本文探讨了 Shapley 值在贝叶斯网络框架下的应用,分析了 Shapley 值与条件独立性的关系,并发现高 Shapley 值的变量不一定对模型预测性能有显著影响,而低 Shapley 值的变量可能会导致较差的预测结果。因此,在一般情况下,使用 Shapley 值进行特征选择并不一定能建立起最简单和预测性最优的模型,而且 Shapley 值不反映变量与目标之间的因果关系。
Aug, 2020
Shapley value explanations are less precise for observations on the outer region of the training data distribution, which has not been systematically addressed in the Shapley value literature.
Dec, 2023
该论文提出一种称为 Shapley-Taylor 指数的方法来解决归因问题,并使用交互分布公理将其公理化,并将其应用于模型中以识别有趣的定性洞见。
Feb, 2019
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
本研究旨在介绍 Shapley 可解释性的一个数学根据和模型独立的框架,但是通常的 Shapley 可解释性实现做了一个不切实际的假设,即模型的特征是不相关的,而作者这里提出了两种策略去解决这个问题,基于生成建模的方法提供灵活的数据归因,另一种直接学习了 Shapley 价值函数,提供了性能和稳定性,但缺陷是没有灵活性,通过我们的研究表明该假设会导致展示效果错误,隐藏敏感性属性的隐含模型依赖性和意义不明的高维数据。
Jun, 2020
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023