利用描述逻辑进行异构图神经网络的全局解释
GLGExplainer 是一种全局解释器,它能够生成作为图形概念逻辑公式的本地解释的任意布尔组合,从而提供准确和人类可解释的全局解释,这使得 GLGExplainer 成为有前途的用于学习 GNN 的诊断工具。
Oct, 2022
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
本文通过研究图神经网络(GNNs)中个别神经元的行为,提出新的度量方法和全局解释方法,证明 GNN 神经元充当概念探测器,在逻辑组合的节点度和邻域属性的概念中具有良好的对齐性,将 GNNs 转换成易于理解的概念级别,提高模型的解释性和透明性,并通过实验证明了其优越性。
Aug, 2022
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
GNNAnatomy 是一个模型和数据集通用的视觉分析系统,利用 graphlets 来解释 Graph Neural Networks 在图级分类任务中的行为,并通过两个指标验证推测的 graphlet 解释的有效性和对分类结果的影响。
Jun, 2024
本文提出了一种适用于 GNN 节点和图分类的自动套路解释方法 GCExplainer,通过将人放入循环中,实现了对 GNN 的全局解释,实验表明该方法较 GNNExplainer 具有更高质量的概念表示和提供了更深刻的数据集和模型分析。
Jul, 2021
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
L2XGNN 是一种可解释型 GNN 框架,它能够学习选择解释性亚图,并指定其需要具备的属性,如稀疏性和连通性,从而提高预测的可解释性和准确性。它可以达到与传统方法相同的分类准确性,同时使用的仅仅是提供的解释所包含的亚图。
Sep, 2022