该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
L2XGNN 是一种可解释型 GNN 框架,它能够学习选择解释性亚图,并指定其需要具备的属性,如稀疏性和连通性,从而提高预测的可解释性和准确性。它可以达到与传统方法相同的分类准确性,同时使用的仅仅是提供的解释所包含的亚图。
Sep, 2022
提出了一种名为 XGNN 的新方法,通过训练图生成器来解释 GNN 在模型级别的工作,其中将图形生成作为强化学习任务,并利用训练的 GNN 信息对图形生成器进行策略梯度方法的训练,最终可以有效地理解和验证所训练的 GNN 的结果,并在生成的图形上改进 GNN 的性能。
Jun, 2020
我们展示了在传统方法无法获得满足可解释性准则的解释时,一种基于修改后的图信息瓶颈原理的因子解释模型的有效性,并进行了广泛实验证实。
Dec, 2023
本文提出了第一个系统性的图神经网络的可解释性评估框架,比较了该领域中最具代表性的技术,涉及节点分类任务和欺诈检测应用案例。
Jun, 2022
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021