自监督图结构细化用于图神经网络
本论文提出了一种实用的无监督图结构学习(GSL)范式,使用自我监督对比学习辅助产生“锚图”目标,采用新型自举机制升级锚图并设计多种图学习器和后处理方案,取得了显著有效性和优化图的高质量。
Jan, 2022
本文提出了一个名为SE-GSL的通用图结构学习框架,通过结构熵和在编码树中抽象的图层次来优化图结构的质量和可解释性,它对于各种图神经网络模型具有增强鲁棒性的作用。
Mar, 2023
这篇论文介绍了OpenGSL,这是第一个全面的Graph Structure Learning基准,旨在通过评估出现在各种流行数据集,以及使用统一数据处理和分割策略的最新GSL方法之间的公平比较,缩小研究进展存在的差距。
Jun, 2023
我们提出了一种名为统一图结构学习(UGSL)的框架,用于图结构学习的基准策略,该框架将现有模型重构为一个单一模型,并对框架中不同组件的有效性进行了广泛分析,结果详细说明了该领域中的不同方法及其优缺点。
Aug, 2023
使用20个不同的图数据集和16个不同的GSL算法构建的全面图结构学习基准(GSLB)系统地分析了GSL的性能,并评估了前沿的GSL算法在节点级和图级任务中的表现,以及它们在鲁棒学习和模型复杂性方面的性能并提供了可视化的方法进行训练、评估和可视化不同的GSL方法。
Oct, 2023
通过使用大型语言模型来学习图结构数据中的复杂节点关系,GraphEdit方法无论在去噪连接还是从全局角度识别节点依赖方面都提供了全面的图结构理解,有效克服了显式图结构信息的局限性,增强了图结构学习的可靠性。
Feb, 2024
通过任务无关的图结构损失函数,我们提出了一种名为Graph structure Prompt Learning(GPL)的新型图结构预测学习方法,能够提高图神经网络(GNNs)的训练效果,进而有效学习内在的图特征,大幅提升节点分类、图分类和边预测任务的性能。
Jul, 2024
本研究针对现有图神经网络在特征聚合和传递中对结构信息依赖过大的问题,提出了一种新的图结构自对比框架,旨在提高模型的鲁棒性和泛化能力。该方法通过多层感知器隐式捕捉结构信息,不依赖于信息传递,并通过去除无效边缘和自对比学习提高了节点表示的稳健性。实验结果表明,GSSC框架在性能上显著优于其他主流方法。
Sep, 2024
本研究旨在解决图神经网络(GNN)中图结构学习(GSL)对性能影响的模糊性和缺乏理论分析的问题。提出的新框架通过分析原始拓扑和新构建拓扑节点表征之间的互信息,揭示了GSL在许多情况下无法提高GNN性能的事实,这促使我们重新审视GNN设计中的自我训练和结构编码等基本组成部分。
Nov, 2024