OpenGraph:走向开放图形基础模型
本文研究图嵌入是否近似于传统的顶点层面图特征,通过从嵌入空间直接预测已知的拓扑特征,使用监督和无监督方法,并通过对五种最先进的无监督图嵌入技术进行广泛的实验评估,测量一系列拓扑特征,我们证明了嵌入空间确实近似了几个拓扑特征,从而提供了关于图嵌入如何创建好表示的关键的洞见。
Jun, 2018
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
本文介绍了混合图(即高阶图)的统一定义以及混合图基准测试(HGB),并提供了可扩展的评估框架和支持代码库以方便在HGB 上训练和评估GNNs;我们的实证研究揭示了各种研究机会和空白。
Jun, 2023
这篇论文介绍了OpenGSL,这是第一个全面的Graph Structure Learning基准,旨在通过评估出现在各种流行数据集,以及使用统一数据处理和分割策略的最新GSL方法之间的公平比较,缩小研究进展存在的差距。
Jun, 2023
本文介绍一种新的问题设置,探索学习通用图结构学习模型以在开放环境下推广,从而进一步优化可适应特定图数据集的图结构,通过多个特定的 GNN 模型应对多样化数据集。
Jun, 2023
提出了图基础模型(GFMs)的概念,并对其关键特征和技术进行首次全面阐述,然后将现有工作根据其依赖性分为三类,即基于图神经网络和大语言模型。本文不仅提供了对当前图基础模型领域的综合概述,还讨论了这一发展中领域的潜在研究方向。
Oct, 2023
图基础模型(GFM)是图领域中一个新兴的研究课题,旨在发展一种能够概括不同图和任务的图模型。我们提出了一个新颖的视角——“图词汇表”,通过在图中编码基本可转移单元的不变性来建立图词汇表,从而解决在构建GFM中遇到的跨结构模式图之间正向传递的关键挑战,这一视角可以潜在地推进未来GFM设计遵循神经规模定律。
Feb, 2024
我们提出了UniGraph框架,通过使用文本属性图(TAGs)来训练图基础模型,实现对未见过的图和任务在不同领域中的泛化能力。我们的方法采用了级联的语言模型(LMs)和图神经网络(GNNs)构建的骨干网络以及基于掩码图建模(MGM)的自我监督训练目标,并引入大型语言模型(LLMs)进行图指令调优,进而使模型能够进行零样本预测。在各种图学习任务和领域的全面实验证明了我们模型在未见过的图的自我监督表示学习、少样本上下文转移和零样本转移方面的有效性,甚至超越或匹配了在目标数据集上进行受监督训练的GNNs的性能。
Feb, 2024
多图多任务预训练方法(GraphFM)通过将特定领域的特征压缩到一个共同的潜空间,并在不同领域的数据上进行扩展,提高了通用模型的泛化能力。通过对152个不同图数据集进行预训练,并根据跨多个领域的数据构建扩展规律,该方法证明了在真实和合成图上进行多图预训练可以显著减轻当前图训练方法的负担,创建一种能在广泛数据集和任务中竞争的单一通用模型。
Jul, 2024
本研究旨在解决现有图学习模型在提取可泛化见解时面临的结构和特征异质性问题。提出的AnyGraph模型利用图混合专家架构,有效实现快速适应新领域的数据,同时展示出其在分布迁移上的强大性能及扩展性。实验结果表明,AnyGraph在38个多样图数据集上展现了出色的零样本学习能力,具备广泛应用潜力。
Aug, 2024