结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
GVEX 提出了一种新颖的图解释范式,设计了一个两层的解释结构,包括图模式和感知解释子图,利用高质量的解释子图来对图神经网络进行解释,并通过两个算法实现了高效和可扩展的解释生成。
Jan, 2024
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
提出了一种名为 XGNN 的新方法,通过训练图生成器来解释 GNN 在模型级别的工作,其中将图形生成作为强化学习任务,并利用训练的 GNN 信息对图形生成器进行策略梯度方法的训练,最终可以有效地理解和验证所训练的 GNN 的结果,并在生成的图形上改进 GNN 的性能。
Jun, 2020
本文介绍了一种名称为 ShapeGGen 的数据生成器,它可以生成各种基准数据集,并配备了地面真实解释。ShapeGGen 通过生成多样的综合数据集和相关地面真实解释,允许我们模仿各种现实应用程序生成的数据。ShapeGGen 和几个真实世界的图形数据集被包括在一个开源的图解释库中,名为 GraphXAI。除了具有地面真实解释的综合和真实世界的图形数据集外,GraphXAI 还提供数据加载器,数据处理函数,可视化器,GNN 模型实现和评估指标,以评估 GNN 可解释性方法的性能。
Aug, 2022
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
解释性图神经网络的解释器在对抗性攻击下表现脆弱
Jun, 2024
本文提出了一种独立于下游模型的、在自监督下训练的 GNN 解释器(TAGE),能够解释未知下游任务的 GNN 嵌入模型,无论是多任务模型还是自监督训练模型,在多个下游任务中使用同一模型进行解释,其解释质量甚至比现有的 GNN 解释方法更好。
Feb, 2022
从因果关系的角度理论分析图神经网络的预测,并提出了一种简单而有效的对齐嵌入算法来消除潜在的分布偏移对解释的影响,以优化更忠实的解释目标。
May, 2022