探索因果学习通过图神经网络:深度综述
本文提出了一种基于得分的图神经网络方法,旨在学习离散时间时间图中捕捉因果依赖的稀疏DAG,结果表明该方法较其他现有方法如动态贝叶斯网络推断等表现更好,得到的结构因果模型也比诸如Notears等方法发现的线性SCM更准确。
Jan, 2023
本文研究了神经网络中因果关系的估计及维护,提出了一种有效的方法来捕获和维护直接和间接的因果关系,并在高维数据中量化因果属性。通过实验验证此方法学习的因果属性能够接近于真实效果。
Mar, 2023
我们提出了一种名为因果感知神经网络(CINN)的通用方法,用于将观测变量之间的层次化因果结构编码到神经网络中,从而提高其预测性能。通过将因果性结构化知识映射到神经网络的逐层设计中,CINN通过连续优化问题将因果关系发现转化为定向无环图(DAG)学习来系统地从观测数据中发现因果关系,并通过专用架构和定制的损失函数将发现的层次化因果结构编码到神经网络中,实现了中间节点和叶节点的联合学习,显著提高了预测性能。
Nov, 2023
通过构建人工合成数据集和进行实验验证,本论文从因果学习的角度综合分析了各种图神经网络模型,在此基础上提出一种轻量且高度适应性的图神经网络模块,以增强其因果学习能力。
Dec, 2023
在这篇综述中,我们针对当前图神经网络(Graph Neural Networks,GNNs)的信任度问题,介绍了最近关于启发于因果关系的GNNs的研究,并提出了基于因果学习能力的Causality-Inspired GNNs(CIGNNs)的分类和典型方法,以及它们如何缓解信任度风险。我们还总结了有用的资源,并探讨了在这个新兴领域中的几个未来方向,希望能够为新的研究机会提供启示。
Dec, 2023
在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到GNN模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于GNN模型的训练。在这一前提下,我们提出了一种新方法,使GNN模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。
Jun, 2024
通过因果推理,提出了一种基于图神经网络的因果解释方法,通过构建因果结构和结构性因果模型,通过训练可定制的神经因果模型,揭示了解释图神经网络预测的子图。
Jul, 2024