提出了一种名为 XGNN 的新方法,通过训练图生成器来解释 GNN 在模型级别的工作,其中将图形生成作为强化学习任务,并利用训练的 GNN 信息对图形生成器进行策略梯度方法的训练,最终可以有效地理解和验证所训练的 GNN 的结果,并在生成的图形上改进 GNN 的性能。
Jun, 2020
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
本文全面梳理了针对可解释的图神经网络的技术,并基于这些技术对它们进行了分类,给出了衡量其性能的常见指标,最后指出了未来的研究方向。
Jul, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
我们提出了一种使用代理图生成可解释子图的新方法,通过信息论设计的训练目标确保代理图符合训练数据的分布并保留基本的解释因素,从而实现更准确的图神经网络解释。
Feb, 2024
本研究提出了一种名为 SubgraphX 的算法,采用蒙特卡洛树搜索来探索重要子图并使用 Shapley 值作为子图重要性的度量,从而以明确和直接的方式解释图神经网络 (GNNs) 的预测结果.
Feb, 2021
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022