本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
本研究是针对图神经网络中预测的因果性解释提出了一种使用数据扰动来对其进行真伪性检测的方法,我们使用边缘删除的方法,发现我们的方法 CF-GNNExplainer 不仅可以在预测上具有良好的准确性,还可以通过最少的边缘删除来生成因果性解释。
Feb, 2021
基于图神经网络的漏洞检测面临可解释性的挑战,因此提出了 CFExplorer,一种针对 GNN 漏洞检测的新颖的反事实解释器,通过最小程度的扰动来回答所谓的 “如果” 问题,从而确定检测漏洞的根本原因,并为开发者提供有价值的修复漏洞的见解。
Apr, 2024
从因果关系的角度理论分析图神经网络的预测,并提出了一种简单而有效的对齐嵌入算法来消除潜在的分布偏移对解释的影响,以优化更忠实的解释目标。
May, 2022
本研究介绍了一种称为 INDUCE 的归纳算法,旨在为节点推导科学中的 GNN 提供因果关系解释,并通过引入边缘增强来改善 counterfactual 结果,此外,归纳建模方法使 INDUCE 直接预测反事实扰动,无需特定示例的训练,从而在计算速度上实现了显著领先的方法和 GNN 的可扩展反事实分析。
Jun, 2023
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
通过引入图形编辑作为反事实解释,将输入数据表示为图形,寻找一条最短的图形编辑路径,以达到黑盒分类器提供的替代分类标签。
Jan, 2024
本文提出了一种新的可解释 AI 方法 CF^2,结合因果推断理论的概念,通过优化问题,生成了一种两个因果视角的模型无关框架,用于产生 GNN 解释,并提供了一组基于对照和实际推理的度量方法,用于定量评估生成解释的必要性和充分性,实验证明在真实世界的数据集上,无论是否提供基本真理解释,CF^2 的生成解释都比以前的最先进方法更好。
Feb, 2022
图神经网络 (GNN) 的预测通常缺乏可解释性,因为其复杂的计算行为和图的抽象特性,为解决这一问题,出现了许多 GNN 解释方法,它们的目标是解释模型的预测结果,从而在 GNN 模型在决策关键应用中部署时获得信任,但是,大多数 GNN 解释方法都是事后提供解释,以一小部分重要的边缘和 / 或节点的形式,本文表明这些解释不能被信任,因为常见的 GNN 解释方法对对抗扰动非常敏感,这对 GNN 解释方法的可信度和实际效用提出了疑问,我们提出了一种新的攻击方法,称为 GXAttack,这是第一个针对事后 GNN 解释的基于优化的对抗攻击方法,由于我们攻击的毁灭性有效性,我们呼吁对未来的 GNN 解释器进行对抗性评估,以证明它们的鲁棒性。
Jun, 2024
解释性图神经网络的解释器在对抗性攻击下表现脆弱