学习重新加权用于图神经网络
本文分析了具有随机节点初始化的GNNs的表达力,证明了这些模型是通用的,这是GNNs的首个不依赖于计算要求更高阶特性的结果。我们基于精心构建的数据集,对RNI对GNNs的影响进行了经验分析。我们的实证结果支持RNI对于GNNs的优异表现。
Oct, 2020
本文提出了一种名为 StableGNN 的基于因果关系的图神经网络框架,该框架从图数据中提取高级表示,并利用因果推断的区分能力帮助模型消除虚假相关性,具有良好的有效性、灵活性和解释性。
Nov, 2021
本文提出了一种名为OOD-GNN的图神经网络,它通过使用利用随机傅里叶特征的非线性图表示装饰方法来消除图表示中相关和不相关部分之间的统计依赖关系,进而使其能够实现对训练图数据分布以外的新颖测试图数据的良好性能。经实验证明,该方法在两个合成和12个真实数据集上均远远优于现有的最优基准模型。
Dec, 2021
本文介绍了一个名为Meta Weight Graph Neural Network的模型,该模型可以自适应地构建不同节点的图卷积层来提高图神经网络的表达能力,其通过使用元权重模型来生成自适应图卷积来提高节点表示,并在真实和合成基准测试中进行了广泛的实验证明了其在处理具有不同分布的图数据方面具有出色的表现。
Mar, 2022
本研究提出一种基于规则化策略的方法,能够在只有训练数据而没有测试数据的情况下,提高图神经网络在更大规模的图上的泛化能力,从而改善图分类的性能。实验结果表明,流行的 GNN 模型在我们的规则化策略下,在 50% 规模最小的图上进行训练,在 10% 规模最大的图上进行测试时,性能提高了达到 30%。
Jul, 2022
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
对于图外分布问题(OOD),本研究从体系结构角度进行了全面调查,探讨了现代图神经网络的常见构建模块。通过广泛的实验,揭示了图的自注意机制和解耦体系结构对图ODD泛化的正面贡献,而线性分类层则会损害图ODD泛化能力。此外,我们基于这些发现开发了一种新的图神经网络模型DGAT,它充分利用了图的自注意机制和解耦体系结构的稳健特性,并通过广泛的实验证明了我们模型在图ODD下的有效性,对各种训练策略都展现出了明显和一致的改进。
Feb, 2024
通过因果关系分析揭示了图神经网络在节点分布迁移中一种存在于环境背景潜在混淆偏差,提出一种简明的、有原则性的方法通过因果推断来训练鲁棒的图神经网络,以抵消训练数据中的混淆偏差,并促进学习可泛化的预测关系。实验证明,该模型可以有效提高各类分布迁移情况下的泛化性能,在图的分布迁移基准测试中相比最先进方法最多提高27.4%的准确率。
Feb, 2024
本文提出了一种基于节点级环境识别和外推技术的图形上的节点层次环境识别和提取不变性方法IENE,其能够同时从两个层次提取不变性,从而提高了广义化性能。经过广泛的实验验证,IENE在两个合成和四个真实世界的OOD数据集上验证了其优越性,它优于现有技术,并为增强GNN泛化提供了灵活的框架。
Jun, 2024
采用拓扑感知动态重新加权(TAR)框架,通过在几何Wasserstein空间中的梯度流动态调整样本权重,以提供分布鲁棒性,从而增强图数据的域外泛化性能。
Jun, 2024