通过传播局部组成部分的 Shapley 值来解释模型
本文提出使用 Shapley values 作为深度模型的潜在表示,使得 Shapley explanations 能够成为建模范式的第一等公民,从而实现了层次化解释、模型在训练期间的解释以及快速解释计算。作者证明了 ShapNets 确保 Shapley 值的缺失和准确性,并通过在合成和真实数据集上的演示展示了它的有效性。
Apr, 2021
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
我们引入了一种新颖的、能够显著简化 Shapley 值计算的自解释方法,并且探索了将概率框架纳入其中以捕捉解释中固有的不确定性,它基于一个新颖的遮蔽神经网络体系结构,在模拟和真实数据集上的评估验证了我们技术的稳健预测和解释性能。
Feb, 2024
ONNXExplainer 是一个用 Shapley 值在 ONNX 生态系统中解释神经网络的通用框架,其自动微分和优化方法实现了一次部署、高效计算解释和更少内存消耗。通过与 SHAP 进行比较,广泛的基准测试表明,所提出的优化方法能够提高 VGG19、ResNet50、DenseNet201 和 EfficientNetB0 的解释延迟高达 500%。
Sep, 2023
本文介绍了 EmSHAP(基于能量模型的 Shapley 值估计),它可以有效地近似预测模型在任意特征子集上的 Shapley 贡献函数的期望值。通过引入门控循环单元(GRU)将输入特征映射到隐藏空间,以消除输入特征排序的影响,并提出了动态屏蔽方案来提高泛化能力。定理 1、2 和 3 证明了 EmSHAP 比 KernelSHAP 和 VAEAC 等现有方法具有更紧的误差界限,从而实现了更高的估计精度。最后,针对医学和工业领域的应用案例表明,所提出的基于 Shapley 值的可解释框架具有提高的估计精度而无需牺牲效率。
Apr, 2024
本文提出了一种新的算法方法,将 Shapley 值中两种不同的解释组合在一起,以增强模型的说明能力,并在两个真实世界的数据集上应用。
Jun, 2023
研究表明,Shapley 值可提供模型不可知的特征归因,通过在全局人口分布下模拟特征缺失,来描述特定情况下模型结果;但是当局部模型行为受关注时,使用全局人口可能导致潜在的误导结果。因此,我们考虑制定邻域参考分布,以改善 Shapley 值的本地可解释性,通过这样做,发现经典的 Nadaraya-Watson 估计器可以被表达为自标准化重要性采样估计器,其中邻域 Shapley 值识别有意义的稀疏特征相关性归因,为了研究常规的 Shapley 值分析进行补充,增加了对构建对抗分类器的流形可解释性和鲁棒性。
Jun, 2021