本文介绍了Graph Neural Networks (GNNs) 领域关于基准测试框架的应用,通过该框架,可对模型进行比较,并且探索新的GNN设计和洞见,其中,图形位置编码(PE)是该基准测试框架中引入的重要设计之一。
Mar, 2020
本文综述了最近在图结构学习(GSL)方法中的 进展,着重于建模图结构的方法,应用和未来方向。GSL 旨在联合学习优化的图结构和对应的图表示。
Mar, 2021
本论文提出了一种实用的无监督图结构学习(GSL)范式,使用自我监督对比学习辅助产生“锚图”目标,采用新型自举机制升级锚图并设计多种图学习器和后处理方案,取得了显著有效性和优化图的高质量。
Jan, 2022
本文提出了一种图结构学习方法——图结构精炼方法(GSR),采用预训练-微调管道,通过多视角对比学习和概率估计相结合的方式,提高了图神经网络(GNN)的效能和扩展性。
Nov, 2022
这篇论文介绍了OpenGSL,这是第一个全面的Graph Structure Learning基准,旨在通过评估出现在各种流行数据集,以及使用统一数据处理和分割策略的最新GSL方法之间的公平比较,缩小研究进展存在的差距。
Jun, 2023
本文介绍一种新的问题设置,探索学习通用图结构学习模型以在开放环境下推广,从而进一步优化可适应特定图数据集的图结构,通过多个特定的 GNN 模型应对多样化数据集。
使用20个不同的图数据集和16个不同的GSL算法构建的全面图结构学习基准(GSLB)系统地分析了GSL的性能,并评估了前沿的GSL算法在节点级和图级任务中的表现,以及它们在鲁棒学习和模型复杂性方面的性能并提供了可视化的方法进行训练、评估和可视化不同的GSL方法。
Oct, 2023
通过对全图训练和小批量训练系统的综合实证比较,我们发现小批量训练系统在多个数据集、GNN模型和系统配置下都比全图训练系统更快地收敛,速度提升在2.4倍至15.2倍之间。我们还发现两种训练技术在准确度上趋于相似,因此从时间达到准确度的角度比较两种类别的系统是合理的。
Jun, 2024
通过任务无关的图结构损失函数,我们提出了一种名为Graph structure Prompt Learning(GPL)的新型图结构预测学习方法,能够提高图神经网络(GNNs)的训练效果,进而有效学习内在的图特征,大幅提升节点分类、图分类和边预测任务的性能。
Jul, 2024
本研究旨在解决图神经网络(GNN)中图结构学习(GSL)对性能影响的模糊性和缺乏理论分析的问题。提出的新框架通过分析原始拓扑和新构建拓扑节点表征之间的互信息,揭示了GSL在许多情况下无法提高GNN性能的事实,这促使我们重新审视GNN设计中的自我训练和结构编码等基本组成部分。
Nov, 2024