FastSHAP: 实时 Shapley 值估计
Shapley 值是一种广泛接受和可信赖的工具,用于解决深度神经网络等黑盒模型所带来的挑战。本研究分析了现有工作的一致性,并推断出随机估计器可以统一为特征子集重要性采样的线性变换。基于此,我们探讨设计简单的摊销估计器的可能性,并提出了一种简单高效的方法 ——SimSHAP,通过消除冗余技术。在表格和图像数据集上进行的大量实验证实了我们的 SimSHAP 的有效性,能够显著加速准确 Shapley 值的计算。
Nov, 2023
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
Sep, 2023
在神经网络文本分类模型中解释 Shapley Values 的流行度越来越高,但由于模型评估数量过多,计算它们对于大型预训练模型来说是禁止的。为了权衡稳定性和效率,我们开发了一种分散模型,直接预测每个输入特征的 Shapley Value,实验结果表明,与传统方法相比,我们的分散模型以高达 60 倍的速度准确地估计 Shapley 值。
May, 2023
本研究提出了 GNNShap 方法,通过并行化抽样、批处理加速模型预测,为边提供更自然和细粒度的图解释,克服了样本数有限、速度慢等限制,并在真实数据集上取得了较好的可信度分数和更快的解释。
Jan, 2024
本文介绍了 EmSHAP(基于能量模型的 Shapley 值估计),它可以有效地近似预测模型在任意特征子集上的 Shapley 贡献函数的期望值。通过引入门控循环单元(GRU)将输入特征映射到隐藏空间,以消除输入特征排序的影响,并提出了动态屏蔽方案来提高泛化能力。定理 1、2 和 3 证明了 EmSHAP 比 KernelSHAP 和 VAEAC 等现有方法具有更紧的误差界限,从而实现了更高的估计精度。最后,针对医学和工业领域的应用案例表明,所提出的基于 Shapley 值的可解释框架具有提高的估计精度而无需牺牲效率。
Apr, 2024
本文探讨了如何通过线性回归来有效估计机器学习模型的 Shapley 值,并提出了一种方差缩减技术,以加速两个估计器的收敛速度。此外,还发现了一种新的无偏版本 KernelSHAP,并提出了一种针对随机合作博弈的方法,可产生两个全局解释方法的快速新估计器。
Dec, 2020
使用 Monte Carlo 控制变量技术的 ControlSHAP 方法可以有效减少 Shapley 估计的 Monte Carlo 变异性。
Oct, 2023
通过利用机器学习问题的结构性质,我们提出了一种更高效的近似数据 Shapley 值的方法,此方法在不同学习设置中包括随机梯度下降和凸、非凸损失函数中证明了其近似 Shapley 值的准确性收敛性。实验证明,这种方法在保持数据的近似价值和排名的同时,提高了近似速度最高可达 9.9 倍,并且在使用小的子集进行精确评估时,对预训练网络的效率更高。
Nov, 2023
本研究介绍了对视觉 transformers 模型引入 Shapley 值进行解释的方法,通过使用注意掩模方法以及另一个学习的解释模型,有效地生成了更准确的模型解释。
Jun, 2022
本文提出了一种新颖且可解释的预处理方法 FairShap,用于通过数据估值实现公平的算法决策。FairShap 基于 Shapley Value 框架,并通过测量每个训练数据点对预定义公平度量的贡献来实现可解释性。我们在多个不同性质、不同训练场景和模型的最新数据集上进行了实证验证,该方法在表现上优于其他方法,并产生了具有类似精度水平的显着更公平的模型。此外,我们通过直方图和潜在空间可视化说明了 FairShap 的可解释性,我们相信这项工作代表了算法公平性可解释、深度学习可解释性等面向的有前途的方向。
Mar, 2023