为 Shap Score 计算打开神经网络分类器
本文证明了对于确定性和可分解的布尔电路而言,SHAP 得分可以在多项式时间内计算,而将电路的其中一个属性删除,则计算 SHAP 得分问题将变得棘手(即 #P 难)
Jul, 2020
通过引入马尔可夫视角,我们研究了 SHAP 得分的计算复杂性,并在一些模型类中展示了多项式时间内计算 SHAP 得分的积极复杂性结果,从而超越特征独立性假设的限制。
May, 2024
本文介绍了一种 Shapley-based 方法 GRAPHSHAP,它可以对黑盒图分类器提供基于模体的解释;并在具有自闭症谱系障碍和对照组的真实大脑网络数据集上进行了测试,证明该方法可以有效地解释黑盒分类器所提供的分类结果。
Feb, 2022
本研究提出了 GNNShap 方法,通过并行化抽样、批处理加速模型预测,为边提供更自然和细粒度的图解释,克服了样本数有限、速度慢等限制,并在真实数据集上取得了较好的可信度分数和更快的解释。
Jan, 2024
ONNXExplainer 是一个用 Shapley 值在 ONNX 生态系统中解释神经网络的通用框架,其自动微分和优化方法实现了一次部署、高效计算解释和更少内存消耗。通过与 SHAP 进行比较,广泛的基准测试表明,所提出的优化方法能够提高 VGG19、ResNet50、DenseNet201 和 EfficientNetB0 的解释延迟高达 500%。
Sep, 2023
本文介绍了一种新的检测方法,该方法使用计算深度神经网络分类器的内部层的 Shapley 加性解释(SHAP)值来区分正常和对抗输入。通过针对流行的 CIFAR-10 和 MNIST 数据集构建数据集,训练基于神经网络的检测器去区分正常和对抗性输入,并评估了该方法在对抗攻击生成的对抗性数据上的检测能力。结果表明,该检测器具有高的检测准确性和对使用不同攻击方法生成的对抗性输入的强大泛化能力。
Sep, 2019
SHAPNN 是一种新颖的深度表格数据建模架构,通过利用 Shapley 值,一种解释黑盒模型的常用技术,我们的神经网络使用标准的反向传播优化方法进行训练,并利用实时估计的 Shapley 值进行正则化。我们的方法具有多个优点,包括可以为数据实例和数据集提供有效的解释而无需计算开销,而且带解释的预测还可以作为正则化器,提高模型性能,增强模型的持续学习能力。我们在各种公开可用的数据集上评估了我们的方法,并与最先进的深度神经网络模型进行比较,展示了 SHAPNN 在 AUROC、透明度和对流数据的鲁棒性方面的卓越性能。
Sep, 2023
提出了基于随机计算的 Binarized Neural Networks,其输入也进行了二值化,仿真实验表明这样的网络在 Fashion-MNIST 和 CIFAR-10 数据集上可以接近常规的 Binarized Neural Networks 的性能,同时适应了硬件限制的 Binarized Neural Networks 可以在面积和能耗上节省大量资源。
Jun, 2019