个体 Shapley 值解释的精确性
本文主要研究如何使用 Monte Carlo 积分或回归来模拟条件期望值以估计 Shapley 值,以及对现有方法进行改进和系统化分类,并进行广泛的模拟和实际数据实验来评估和推荐何时使用不同的方法类。
May, 2023
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文提出一种将 Shapley 值框架用于解释各种预测不确定性的方法,旨在通过量化每个特征对个体模型输出的条件熵的贡献来解释模型输出的不确定度;该方法具有用于协变量转移检测、主动学习、特征选择和主动特征值获取的应用。
Jun, 2023
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
我们引入了一种新颖的、能够显著简化 Shapley 值计算的自解释方法,并且探索了将概率框架纳入其中以捕捉解释中固有的不确定性,它基于一个新颖的遮蔽神经网络体系结构,在模拟和真实数据集上的评估验证了我们技术的稳健预测和解释性能。
Feb, 2024
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
本文探讨了 Shapley 值在贝叶斯网络框架下的应用,分析了 Shapley 值与条件独立性的关系,并发现高 Shapley 值的变量不一定对模型预测性能有显著影响,而低 Shapley 值的变量可能会导致较差的预测结果。因此,在一般情况下,使用 Shapley 值进行特征选择并不一定能建立起最简单和预测性最优的模型,而且 Shapley 值不反映变量与目标之间的因果关系。
Aug, 2020
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
通过介绍 Asymmetric Shapley values (ASVs) 这种较少限制的框架,本文提出了这种框架可以改善模型解释、为模型预测中的不公平歧视提供测试、在时序模型中支持逐步增量解释以及支持特征选择研究而无需进行模型重新训练。
Oct, 2019