本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
本文全面梳理了针对可解释的图神经网络的技术,并基于这些技术对它们进行了分类,给出了衡量其性能的常见指标,最后指出了未来的研究方向。
Jul, 2022
本文综述了当前图神经网络可解释性方法,并建立了标准化的测试集,为以后的方法发展提供了经验基础。
Dec, 2020
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
该文提出了一种名为 “可解释的几何深度网络” 的端到端学习方法,用于在高维数据中实现精细的可解释性,例如神经成像和神经科学研究。该方法采用学习解释性因素来增强鉴别性表示提取,以实现可解释的预测和分类结果。
Jan, 2023
本文通过实验研究,测试了十种解释器在八种代表性架构训练的六个仔细设计的图形和节点分类数据集上的表现,提供了 GNN 解释器选择和适用性的关键见解,分离了使它们可用的关键组件并提供了关于如何避免常见解释误区的建议,并强调了未来研究的开放性问题和方向。
Oct, 2022
本文提出了第一个系统性的图神经网络的可解释性评估框架,比较了该领域中最具代表性的技术,涉及节点分类任务和欺诈检测应用案例。
Jun, 2022