从因果关系的角度理论分析图神经网络的预测,并提出了一种简单而有效的对齐嵌入算法来消除潜在的分布偏移对解释的影响,以优化更忠实的解释目标。
May, 2022
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
Gem 是一种通用方法,为各种图形学习任务上的任何 GNN 提供可解释性解释,通过因果学习任务解决了 GNN 决策的解释问题,并显示其相对于最先进的替代方案具有更好的解释准确性增加了高达 30%,并将解释过程加速了高达 110 倍。
Apr, 2021
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
图形模型及图神经网络中的解释辅助学习和数据增强的研究,探讨了解释辅助学习规则和数据增强方法,以及它们在训练中的优势和限制。
Feb, 2024
本文提出了一种基于信息瓶颈理论的目标函数和混合框架来解释解释图回归模型(XAIG-R)的方法,并引入了对比学习策略来解决连续有序标签的问题,实验证明该方法在解释图神经网络模型中的回归任务方面具有有效性。
Jul, 2023
SCALE 是一个快速通用的 GNN 解释框架,通过训练多个特殊学习器来解释预测,同时提供结构化的总体和实例级特征贡献。
Oct, 2022
本研究提出了一种基于 GFlowNets 的 GNN Explainer(GFlowExplainer)方法,通过生成结构而非组合优化的方法来生成子图,加快对 GNN 预测结果的解释,并在综合性实验中证明了其优越性。
Mar, 2023