将图神经网络与结构因果模型相关联
本文提出了一种基于得分的图神经网络方法,旨在学习离散时间时间图中捕捉因果依赖的稀疏DAG,结果表明该方法较其他现有方法如动态贝叶斯网络推断等表现更好,得到的结构因果模型也比诸如Notears等方法发现的线性SCM更准确。
Jan, 2023
本文研究了神经网络中因果关系的估计及维护,提出了一种有效的方法来捕获和维护直接和间接的因果关系,并在高维数据中量化因果属性。通过实验验证此方法学习的因果属性能够接近于真实效果。
Mar, 2023
图神经网络(GNNs)在因果学习中的应用和发展进行了全面的综述,包括分类和应用等方面,提供了与实际研究相关的数据集,同时探讨了因果学习在不同领域的应用,为机器学习这一快速发展领域的挑战和未来的研究方向提供了启示。
Nov, 2023
通过构建人工合成数据集和进行实验验证,本论文从因果学习的角度综合分析了各种图神经网络模型,在此基础上提出一种轻量且高度适应性的图神经网络模块,以增强其因果学习能力。
Dec, 2023
在这篇综述中,我们针对当前图神经网络(Graph Neural Networks,GNNs)的信任度问题,介绍了最近关于启发于因果关系的GNNs的研究,并提出了基于因果学习能力的Causality-Inspired GNNs(CIGNNs)的分类和典型方法,以及它们如何缓解信任度风险。我们还总结了有用的资源,并探讨了在这个新兴领域中的几个未来方向,希望能够为新的研究机会提供启示。
Dec, 2023
在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到GNN模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于GNN模型的训练。在这一前提下,我们提出了一种新方法,使GNN模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。
Jun, 2024
通过因果推理,提出了一种基于图神经网络的因果解释方法,通过构建因果结构和结构性因果模型,通过训练可定制的神经因果模型,揭示了解释图神经网络预测的子图。
Jul, 2024
本研究针对网络中的因果推断问题,尤其是隐藏混杂因素对因果效应估计的影响,提出了CgNN方法。该方法通过将网络结构作为工具变量结合图神经网络和注意力机制,不仅减轻了混杂因素的偏倚,还增强了重要节点的识别能力。实验结果表明,CgNN在实际数据集上有效降低了隐藏混杂因素影响,对复杂网络数据的因果推断提供了坚实的框架。
Sep, 2024