本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
图神经网络 (GNN) 的预测通常缺乏可解释性,因为其复杂的计算行为和图的抽象特性,为解决这一问题,出现了许多 GNN 解释方法,它们的目标是解释模型的预测结果,从而在 GNN 模型在决策关键应用中部署时获得信任,但是,大多数 GNN 解释方法都是事后提供解释,以一小部分重要的边缘和 / 或节点的形式,本文表明这些解释不能被信任,因为常见的 GNN 解释方法对对抗扰动非常敏感,这对 GNN 解释方法的可信度和实际效用提出了疑问,我们提出了一种新的攻击方法,称为 GXAttack,这是第一个针对事后 GNN 解释的基于优化的对抗攻击方法,由于我们攻击的毁灭性有效性,我们呼吁对未来的 GNN 解释器进行对抗性评估,以证明它们的鲁棒性。
Jun, 2024
本文提出了衡量链接预测解释质量的定量指标,通过使用这些指标对图神经网络的最先进可解释性方法进行评估,讨论了底层假设和特定于链接预测任务的技术细节对解释质量的影响。
Aug, 2023
本文提出了一种称为 Prototype Graph Neural Network(ProtGNN)的新型网络结构,它将原型学习与图神经网络相结合,从而为 GNN 的解释提供了新的视角。在 ProtGNN 中,解释是从基于案例的推理过程中自然推导出来的,并在分类期间实际使用。通过将输入与潜在空间中学习的几个原型进行比较,ProtGNN 可以获得其预测结果。与此同时,为了更好地进行解释和提高效率,在 ProtGNN + 中增加了一种新颖的条件子图抽样模块,用于指示输入图的哪一部分与 ProtGNN 中的每个原型最相似。在广泛的数据集中评估我们的方法,并进行具体的案例研究。结果表明,ProtGNN 和 ProtGNN + 能够提供内在的可解释性,同时实现与非可解释性对应物的准确性。
Dec, 2021
图神经网络(GNNs)中的可解释性是一个新兴领域,在本文中我们讨论了确定每个邻居对于 GNN 在对节点进行分类时的重要性以及如何度量该特定任务性能的问题。为了做到这一点,我们重新构造了各种已知的可解释性方法来获取邻居的重要性,并提出了四个新的度量指标。我们的结果显示,在 GNN 领域中,基于梯度的技术提供的解释几乎没有区别。此外,当使用没有自环的 GNN 时,许多可解释性技术未能识别到重要的邻居。
Nov, 2023
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本文全面梳理了针对可解释的图神经网络的技术,并基于这些技术对它们进行了分类,给出了衡量其性能的常见指标,最后指出了未来的研究方向。
Jul, 2022