通过神经因果模型的图神经网络因果解释
Gem是一种通用方法,为各种图形学习任务上的任何GNN提供可解释性解释,通过因果学习任务解决了GNN决策的解释问题,并显示其相对于最先进的替代方案具有更好的解释准确性增加了高达30%,并将解释过程加速了高达110倍。
Apr, 2021
提出一种名为OrphicX的新的解释框架,用于基于学习的潜在因果因素为任何图神经网络(GNN)生成因果解释,该框架与任何GNN兼容,不需要访问目标GNN生成其预测的过程,无需先验知识,并证明了其优于其他解释方法。
Mar, 2022
通过构建人工合成数据集和进行实验验证,本论文从因果学习的角度综合分析了各种图神经网络模型,在此基础上提出一种轻量且高度适应性的图神经网络模块,以增强其因果学习能力。
Dec, 2023
在这篇综述中,我们针对当前图神经网络(Graph Neural Networks,GNNs)的信任度问题,介绍了最近关于启发于因果关系的GNNs的研究,并提出了基于因果学习能力的Causality-Inspired GNNs(CIGNNs)的分类和典型方法,以及它们如何缓解信任度风险。我们还总结了有用的资源,并探讨了在这个新兴领域中的几个未来方向,希望能够为新的研究机会提供启示。
Dec, 2023
开发了一种新的可解释因果图神经网络框架,结合图信息瓶颈理论和基于检索的因果学习,能够半参数地检索关键子图并通过因果模块压缩解释性子图,在真实世界的多样解释场景中表现出比现有方法更高的准确率和32.71%更高的预测能力。
Feb, 2024
在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到GNN模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于GNN模型的训练。在这一前提下,我们提出了一种新方法,使GNN模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。
Jun, 2024