AGS-GNN:面向图神经网络的属性引导抽样
本文提出了一种统一的编程模型GNNSampler,以覆盖各种类别的抽样算法的关键过程。并基于数据局部性优化GNNSampler,以在各种抽样算法中优化通用抽样过程,以及在大型图数据集上进行实验,从而分析训练时间、准确性和硬件水平指标之间的关联,证明本方法对于主流抽样算法是通用的,在特别是大规模图中显著减少了训练时间。
Aug, 2021
文章提出了一种新的基于向量量化技术的通用框架 VQ-GNN,为了解决图神经网络中的邻居爆炸问题和扩展性问题,该方法可以有效地保留所有传递给 mini-batch 的节点的信息,同时使用小量的量化参考向量和低秩图卷积矩阵进行图嵌入,同时该框架还设计了一种新的基于近似算法的信息传递算法和反向传播规则来优化模型性能,在节点分类和链接预测基准测试中表现出了可伸缩性和竞争力。
Oct, 2021
本文探讨了GNNs的异质问题并研究了跨类别邻居的特征聚合,提出了CAGNNs框架以提高节点分类任务的性能。实验结果表明,我们的框架能够分别提高GIN,GAT和GCN的平均预测准确率9.81%,25.81%和20.61%。
Mar, 2022
本文提出一种名为HE-SGNN的GNN模型,它使用两级嵌套的估计器来减少采样方差,并且使用不同的估计器来应对不同的采样方法。实验结果表明,该模型的效果和效率都很高。
Nov, 2022
我们提出了GCNH,是一种简单但有效的GNN架构,适用于异构和同质图形,并使用一个学习的重要系数平衡中心节点和邻域的贡献,可以解决异构图上性能问题和过度平滑问题。
Apr, 2023
本文研究了GNN在同构和异构图中节点分类性能的差异。我们提出了一种非i.i.d PAC-Bayesian概率界,并通过特征聚合距离和同质比异质性差异解释了性能差异,并证实了较深的GNN的有效性。此外,我们发现了图形分布偏移问题的一个新因素,并提出了相应的新场景。
Jun, 2023
我们提出了一种用于训练大型输入图的图神经网络(GNNs)的理论框架,通过在小型固定大小的采样子图上进行训练。在渐进理论的基础上,我们证明了在渐进意义下,通过在大型输入图的小样本上训练基于采样的GNNs所学习到的参数在ε-邻域内与在整个图上训练相同结构的结果相比具有可接受的误差。我们从ε的角度导出了关于采样数、图的大小和训练步骤所需的界限函数。我们的结果给出了对于在训练GNNs中使用采样的新颖理论理解。同时我们的结果还表明,通过在输入图的小样本上训练GNNs,从而可以更高效地确定和选择最佳模型、超参数和采样算法。我们在大型的引文图上进行了节点分类任务的实证研究,观察到在局部子图上训练的采样GNNs相较于在输入图上训练的GNNs达到了可比较的性能,而局部子图的大小仅为原图的1/12。
Oct, 2023
通过构建label predictor及观察实验证明了异质图上的Heterophily Snowflake Hypothesis,提供了一种用于异质图研究的有效解决方案,该方案可以集成到各种GNN框架中,提升性能并提供选择最佳网络深度的可解释方法。
Jun, 2024
本研究解决了图神经网络在处理大规模同质图时的表现力下降问题。我们提出了一种新颖的图采样算法,通过利用特征同质性来保留图结构,并且在降低复杂度的同时更好地保留了图拉普拉斯算子的秩。实验结果表明,该方法在图秩保持和模型可迁移性方面优于随机采样。
Oct, 2024