本研究是针对图神经网络中预测的因果性解释提出了一种使用数据扰动来对其进行真伪性检测的方法,我们使用边缘删除的方法,发现我们的方法 CF-GNNExplainer 不仅可以在预测上具有良好的准确性,还可以通过最少的边缘删除来生成因果性解释。
Feb, 2021
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
本研究介绍了一种称为 INDUCE 的归纳算法,旨在为节点推导科学中的 GNN 提供因果关系解释,并通过引入边缘增强来改善 counterfactual 结果,此外,归纳建模方法使 INDUCE 直接预测反事实扰动,无需特定示例的训练,从而在计算速度上实现了显著领先的方法和 GNN 的可扩展反事实分析。
Jun, 2023
本文提出一个利用知识图谱提供反事实解释的框架,并给出了一种计算该解释的算法,并 quantitatively 评估了该框架与用户研究。
May, 2023
基于语义图的反事实解释方法使用类探测模型和图嵌入来提供更具描述性、准确性和与人类对齐性的解释,实验结果表明其在视觉领域的超越性能。
Mar, 2024
本文提出了反事实图(counterfactual graphs)作为黑盒图分类器的后解释,然后提出和比较了几种反事实图搜索策略。测试结果表明,虽然该方法是启发式的,但它可以产生非常接近最优反事实图的结果,并展示如何使用反事实图来构建全局解释,以正确捕获不同黑盒分类器的行为并为神经学家提供有趣的见解。
Jun, 2021
本文系统地总结了现有的基于图神经网络的反事实解释方法,提供了统一的框架和常用指标以便于比较研究优缺点,并探讨了隐私和公平方面的问题。
基于图神经网络的漏洞检测面临可解释性的挑战,因此提出了 CFExplorer,一种针对 GNN 漏洞检测的新颖的反事实解释器,通过最小程度的扰动来回答所谓的 “如果” 问题,从而确定检测漏洞的根本原因,并为开发者提供有价值的修复漏洞的见解。
Apr, 2024
在图分类的背景下,本文提出了一种基于密度的反事实搜索框架来生成图分类器的实例级反事实解释,该框架可以用不同的密集子结构概念具体化,通过在 7 个脑网络数据集上进行的评估结果证实了采用密度等语义相关变化单位是定义多功能和可解释的反事实解释方法所必需的。
Jul, 2023