本文介绍了一种名为 GPT-GNN 的框架,用于解决 Graph Neural Networks 训练问题,通过预训练一个能够自监督地学习到结构和语义属性的 GNN 模型,然后将其传输到 Downstream Tasks 中,从而显著提高了性能。
Jun, 2020
本文提出一种预训练框架,使用合成图纹理来获取通用图结构信息,提高了已训练模型在不同下游任务上的性能。
May, 2019
我们介绍了一种名为 GraphGPT 的自我监督建模方法,该方法通过将图或抽样子图转化为表示节点、边和属性的可逆令牌序列,并使用欧拉路径优先进行预训练,最后通过监督学习任务进行微调,该模型在大规模分子数据集 PCQM4Mv2、蛋白质相互作用数据集 ogbl-ppa 以及开放图基准数据集 ogbn-proteins 上取得了接近或优于现有方法的结果,并且能够训练超过 400M 个参数的 GraphGPT,具有一致提升的性能,这超出了 GNN 和先前的图变换模型的能力。
Dec, 2023
我们的研究旨在提高图模型在具有挑战性的零样本学习场景中的泛化能力,通过发展面向图结构知识的大型语言模型(LLMs),并利用图指示调整范式来与图结构知识建立联系,探索自我监督的图结构信号和任务特定的图指示,从而引导 LLMs 在理解复杂的图结构和改善在不同下游任务之间的适应性。我们的框架在监督和零样本图学习任务上进行评估,展示了优越的泛化能力,并超过了最先进的基准模型。
Oct, 2023
本研究提出了一种基于图循环网络的语言模型预训练方法,其在性能、效率和生成多样性方面优于基于注意力机制的 Transformer,用于自监督学习的时候有较高的潜力。
Sep, 2022
该研究提出了一种新的语言模型预训练框架,明确考虑了 Text-Attributed Heterogeneous Graph 中的拓扑和异构信息,通过优化语言模型和辅助异构图神经网络,定义了上下文图,并通过拓扑感知预训练任务来预测与上下文图有关的节点,同时采用文本增强策略来处理节点文本不平衡问题。在三个不同领域的数据集上进行了链接预测和节点分类任务,并实验结果证明了该方法的优越性和每个设计的合理性。
该论文的主要研究方向是在图神经网络中利用自然语言处理模型来提高文本理解能力,并将其作为图结构的特征以提高下游任务的性能。通过在多个数据集上的实验证明,采用该方法在一定程度上提升了图神经网络模型的表现。
May, 2023
该论文提出了一种名为 G-GNNs 的新型模型,通过无监督预训练获取节点的全局结构和属性特征,然后利用这些特征和原始网络属性,提出了一种 GNN 的并行框架以从这些特征中学习不同的方面。该模型的学习方法可应用于平面图和属性图,并通过 extensive experiments 在三个标准评估图上表现优异,特别地,在属性图学习方面,G-GNNs 在 Cora (84.31%) 和 Pubmed (80.95%) 上建立了新的基准记录。
Oct, 2019
提出了 HetGPT,一种通用的后训练提示框架,用于改善预训练的异构图神经网络(HGNNs)的预测性能,并通过多视图邻域聚合机制捕捉异构图中的复杂邻域结构。在三个基准数据集上进行的大量实验证明了 HetGPT 在半监督节点分类方面改进了最先进的 HGNNs 的性能。
本文提出了一种基于文本图的表示学习方法 GraphFormers,该方法将语言模型的 Transformer 块与图神经网络嵌套在一起,将文本编码和图聚合融合到迭代的工作流程中,从全局视角准确地理解每个节点的语义。通过在三个大规模基准数据集上的广泛评估,GraphFormers 比 SOTA 基准模型具有相当的运行效率。
May, 2021