基于原型的自解释图神经网络
本文提出了一种称为 Prototype Graph Neural Network(ProtGNN)的新型网络结构,它将原型学习与图神经网络相结合,从而为 GNN 的解释提供了新的视角。在 ProtGNN 中,解释是从基于案例的推理过程中自然推导出来的,并在分类期间实际使用。通过将输入与潜在空间中学习的几个原型进行比较,ProtGNN 可以获得其预测结果。与此同时,为了更好地进行解释和提高效率,在 ProtGNN + 中增加了一种新颖的条件子图抽样模块,用于指示输入图的哪一部分与 ProtGNN 中的每个原型最相似。在广泛的数据集中评估我们的方法,并进行具体的案例研究。结果表明,ProtGNN 和 ProtGNN + 能够提供内在的可解释性,同时实现与非可解释性对应物的准确性。
Dec, 2021
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
提出了一种名为 XGNN 的新方法,通过训练图生成器来解释 GNN 在模型级别的工作,其中将图形生成作为强化学习任务,并利用训练的 GNN 信息对图形生成器进行策略梯度方法的训练,最终可以有效地理解和验证所训练的 GNN 的结果,并在生成的图形上改进 GNN 的性能。
Jun, 2020
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023