关于对非分布式图形泛化图形神经网络
本文提出了一种名为OOD-GNN的图神经网络,它通过使用利用随机傅里叶特征的非线性图表示装饰方法来消除图表示中相关和不相关部分之间的统计依赖关系,进而使其能够实现对训练图数据分布以外的新颖测试图数据的良好性能。经实验证明,该方法在两个合成和12个真实数据集上均远远优于现有的最优基准模型。
Dec, 2021
本研究提出Causal Attention Learning (CAL)策略,利用因果推断来处理图分类过程中存在的confounding effect of shortcuts,该方法借助注意力模块估计因果特征和快捷特征,并对因果理论进行参数化背门调整。实验结果表明,CAL策略在合成和真实数据集上均取得了良好的效果。
Dec, 2021
本文研究了图神经网络的偏差问题及其对泛化性能的影响,并提出了一种能够将因果关系和偏差变量进行分离的图神经网络框架,其中利用参数化边缘生成器将输入图形分为因果图和偏差子图并分别训练两个GNN模块,实现了对原模型的改进并取得了超越基线模型的泛化效果。
Sep, 2022
通过构建人工合成数据集和进行实验验证,本论文从因果学习的角度综合分析了各种图神经网络模型,在此基础上提出一种轻量且高度适应性的图神经网络模块,以增强其因果学习能力。
Dec, 2023
在这篇综述中,我们针对当前图神经网络(Graph Neural Networks,GNNs)的信任度问题,介绍了最近关于启发于因果关系的GNNs的研究,并提出了基于因果学习能力的Causality-Inspired GNNs(CIGNNs)的分类和典型方法,以及它们如何缓解信任度风险。我们还总结了有用的资源,并探讨了在这个新兴领域中的几个未来方向,希望能够为新的研究机会提供启示。
Dec, 2023
通过因果关系分析揭示了图神经网络在节点分布迁移中一种存在于环境背景潜在混淆偏差,提出一种简明的、有原则性的方法通过因果推断来训练鲁棒的图神经网络,以抵消训练数据中的混淆偏差,并促进学习可泛化的预测关系。实验证明,该模型可以有效提高各类分布迁移情况下的泛化性能,在图的分布迁移基准测试中相比最先进方法最多提高27.4%的准确率。
Feb, 2024
在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到GNN模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于GNN模型的训练。在这一前提下,我们提出了一种新方法,使GNN模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。
Jun, 2024
本研究解决了图机器学习在分布外数据泛化中的挑战,强调因果驱动的方法在克服这些问题中的重要性。论文提供了对因果促成的图模型泛化的深入回顾,分类并描述了不同的方法及其相互联系,指出了因果性在提高图机器学习可信度中的应用潜力和未来研究方向。
Sep, 2024