本文综述了当前图神经网络可解释性方法,并建立了标准化的测试集,为以后的方法发展提供了经验基础。
Dec, 2020
对于如何以易于理解的方式向终端用户解释图神经网络预测仍然是一个未解决的问题,本文基于应用趋势和实际问题经验,提出了一种自动评估 GNN 解释的方法。
Jun, 2021
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的$K$近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本文全面梳理了针对可解释的图神经网络的技术,并基于这些技术对它们进行了分类,给出了衡量其性能的常见指标,最后指出了未来的研究方向。
Jul, 2022
本文介绍了一种名称为ShapeGGen的数据生成器,它可以生成各种基准数据集,并配备了地面真实解释。ShapeGGen通过生成多样的综合数据集和相关地面真实解释,允许我们模仿各种现实应用程序生成的数据。ShapeGGen和几个真实世界的图形数据集被包括在一个开源的图解释库中,名为GraphXAI。除了具有地面真实解释的综合和真实世界的图形数据集外,GraphXAI还提供数据加载器,数据处理函数,可视化器,GNN模型实现和评估指标,以评估GNN可解释性方法的性能。
Aug, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
采用 GInX-Eval 评估程序,本研究揭示了解释性方法的限制,并提供了新的见解;结果表明,包括基于梯度的方法在内的许多流行方法产生的解释并不优于将边界随机选择为重要子图,这对当前领域的研究成果提出了质疑。
Sep, 2023
通过引入一种信息理论的解释性定义,研究了图神经网络(GNN)的可解释性挑战,发现现有的忠实度量衡不符合这一定义,提出了一种稳健的忠实度量方法,通过广泛的实证分析验证了其与标准度量方法的一致性。
Oct, 2023
图神经网络(GNNs)中的可解释性是一个新兴领域,在本文中我们讨论了确定每个邻居对于GNN在对节点进行分类时的重要性以及如何度量该特定任务性能的问题。为了做到这一点,我们重新构造了各种已知的可解释性方法来获取邻居的重要性,并提出了四个新的度量指标。我们的结果显示,在GNN领域中,基于梯度的技术提供的解释几乎没有区别。此外,当使用没有自环的GNN时,许多可解释性技术未能识别到重要的邻居。
Nov, 2023