使用视觉 Transformer 学习估计 Shapley 值
Shapley value explanations are less precise for observations on the outer region of the training data distribution, which has not been systematically addressed in the Shapley value literature.
Dec, 2023
本文提出使用 Shapley values 作为深度模型的潜在表示,使得 Shapley explanations 能够成为建模范式的第一等公民,从而实现了层次化解释、模型在训练期间的解释以及快速解释计算。作者证明了 ShapNets 确保 Shapley 值的缺失和准确性,并通过在合成和真实数据集上的演示展示了它的有效性。
Apr, 2021
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
我们引入了一种新颖的、能够显著简化 Shapley 值计算的自解释方法,并且探索了将概率框架纳入其中以捕捉解释中固有的不确定性,它基于一个新颖的遮蔽神经网络体系结构,在模拟和真实数据集上的评估验证了我们技术的稳健预测和解释性能。
Feb, 2024
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
本文介绍了 EmSHAP(基于能量模型的 Shapley 值估计),它可以有效地近似预测模型在任意特征子集上的 Shapley 贡献函数的期望值。通过引入门控循环单元(GRU)将输入特征映射到隐藏空间,以消除输入特征排序的影响,并提出了动态屏蔽方案来提高泛化能力。定理 1、2 和 3 证明了 EmSHAP 比 KernelSHAP 和 VAEAC 等现有方法具有更紧的误差界限,从而实现了更高的估计精度。最后,针对医学和工业领域的应用案例表明,所提出的基于 Shapley 值的可解释框架具有提高的估计精度而无需牺牲效率。
Apr, 2024
Shapley 值是一种广泛接受和可信赖的工具,用于解决深度神经网络等黑盒模型所带来的挑战。本研究分析了现有工作的一致性,并推断出随机估计器可以统一为特征子集重要性采样的线性变换。基于此,我们探讨设计简单的摊销估计器的可能性,并提出了一种简单高效的方法 ——SimSHAP,通过消除冗余技术。在表格和图像数据集上进行的大量实验证实了我们的 SimSHAP 的有效性,能够显著加速准确 Shapley 值的计算。
Nov, 2023
FastSHAP 是一种使用学习解释器模型在一次正向传递中估计 Shapley 值的方法,通过启发 Shapley 值加权最小二乘估计的学习方法来分摊解释许多输入的成本,并且可以使用标准的随机梯度优化进行训练,与现有的估计方法进行比较,显示出具有高质量解释的数量级加速。
Jul, 2021
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023