该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
针对图神经网络(GNN)通常难以解释的问题,本文提出了一种基于 Graph Information Bottleneck 的 MixupExplainer 方法,通过加入一个与标签无关的图变量来解决现有的方法存在的分布转移问题,并通过实验验证了该方法的有效性。
Jul, 2023
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
本文通过实验研究,测试了十种解释器在八种代表性架构训练的六个仔细设计的图形和节点分类数据集上的表现,提供了 GNN 解释器选择和适用性的关键见解,分离了使它们可用的关键组件并提供了关于如何避免常见解释误区的建议,并强调了未来研究的开放性问题和方向。
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本研究提出 PGExplainer 方法解决了图神经网络在全局理解及归纳场景下解释预测的问题。PGExplainer 使用神经网络参数化解释生成过程,支持对多个实例进行自然的解释,并提高了解释的泛化能力。实验结果在合成和实际数据集上表现出高度竞争性。
Nov, 2020
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
本研究提出了一种基于 GFlowNets 的 GNN Explainer(GFlowExplainer)方法,通过生成结构而非组合优化的方法来生成子图,加快对 GNN 预测结果的解释,并在综合性实验中证明了其优越性。
Mar, 2023
开发了一种新的可解释因果图神经网络框架,结合图信息瓶颈理论和基于检索的因果学习,能够半参数地检索关键子图并通过因果模块压缩解释性子图,在真实世界的多样解释场景中表现出比现有方法更高的准确率和 32.71% 更高的预测能力。
Feb, 2024