MLPs 中 Shapley Value 的基准线:从 Missingness 到 Neutrality
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
LLpowershap 是一种利用基于损失的 Shapley 值来识别信息特征的特征选择方法,与其他现有方法相比,它不仅能够识别更多的有信息特征,而且输出的噪声特征较少。在四个真实世界数据集上进行的基准测试结果显示,LLpowershap 的预测性能要么更高,要么与其他基于 Shapley 值的封装方法或过滤方法相当。
Jan, 2024
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023
本文提出使用 Shapley values 作为深度模型的潜在表示,使得 Shapley explanations 能够成为建模范式的第一等公民,从而实现了层次化解释、模型在训练期间的解释以及快速解释计算。作者证明了 ShapNets 确保 Shapley 值的缺失和准确性,并通过在合成和真实数据集上的演示展示了它的有效性。
Apr, 2021
本文探讨了 Shapley 值在贝叶斯网络框架下的应用,分析了 Shapley 值与条件独立性的关系,并发现高 Shapley 值的变量不一定对模型预测性能有显著影响,而低 Shapley 值的变量可能会导致较差的预测结果。因此,在一般情况下,使用 Shapley 值进行特征选择并不一定能建立起最简单和预测性最优的模型,而且 Shapley 值不反映变量与目标之间的因果关系。
Aug, 2020
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
模型解释中,遗漏数据与解晰人工智能相关联的相关领域的一个主要因素,在本文中,经验性地研究了各种填充方法对 Shapley 值(一种解释复杂机器学习模型的流行技术)的计算的影响。通过比较不同填充策略,评估其对 Shapley 值决定的特征重要性和交互作用的影响,理论上分析了缺失值对 Shapley 值的影响。结果表明,填充方法的选择可能引入偏差,从而改变 Shapley 值,影响模型的解释性,强调了在机器学习模型中考虑填充效应以确保可靠洞见的重要性。
Jun, 2024
本文提出了一种基于因果关系的模型特征表示方法,探讨了基于屏蔽措施的归因方法的理论缺陷,证明了因果关系是 Shapley 值的基本原理,定义了最佳的基线值,并提出了一种通过学习得到最佳基线值的方法,实验结果证明了该方法的有效性。
May, 2021
研究表明,Shapley 值可提供模型不可知的特征归因,通过在全局人口分布下模拟特征缺失,来描述特定情况下模型结果;但是当局部模型行为受关注时,使用全局人口可能导致潜在的误导结果。因此,我们考虑制定邻域参考分布,以改善 Shapley 值的本地可解释性,通过这样做,发现经典的 Nadaraya-Watson 估计器可以被表达为自标准化重要性采样估计器,其中邻域 Shapley 值识别有意义的稀疏特征相关性归因,为了研究常规的 Shapley 值分析进行补充,增加了对构建对抗分类器的流形可解释性和鲁棒性。
Jun, 2021