UniGNN:一种用于图和超图神经网络的统一框架
基于基因网络的表示学习中,我们提出了一种新颖的 UNGNN (Universal Normalized GNN) 框架,它通过在消息传递阶段和读取层中利用通用图归一化来增强基于 GNN 的性能,实现了 16% 的整体性能提升。
Sep, 2023
本文提出了一种名为 Union Subgraph Neural Network 的图神经网络模型,通过注入从新类型的子结构中提取的邻居连接信息以有效地编码高阶连接性,该模型被证明在区分非同构图方面比 1-WL 更强大,并且在 17 个基准测试中表现出优异的性能,尤其是在现有模型的局部编码的基础上注入我们的局部编码,可以最多提高 11.09% 的性能。
May, 2023
本文旨在建立不同传播机制之间的联合优化框架,总结了几种最具代表性的图神经网络,并提供了新的设计灵活性。本文还提出了两个考虑可调节图内核的新型目标函数,分别表现出低通或高通滤波能力,并提供了所提模型的收敛性证明和表达能力比较。
Jan, 2021
提出了一种新的 Hierarchical Message-passing Graph Neural Networks 框架,通过生成 hierarchical structure,并采用 inra- 和 inter-level propagation manners 以及 hierarchical community detection algorithm,实现了对长程信息的高效访问,从而在节点分类、社区检测等任务中优于现有基于 GNN 的模型。
Sep, 2020
设计了一种通用特征编码器 UniG-Encoder,可以同时、全面地利用节点特征和图 / 超图拓扑关系,对图和超图表示学习进行编码,从而提高节点分类等任务的性能。
Aug, 2023
本研究提出了一种超图神经网络 (HGNN) 框架,可以通过超图结构编码高阶数据相关性,并使用超边卷积操作处理数据相关性,以有效地进行数据表示学习。实验结果表明,HGNN 方法优于最新的最先进的方法,并且可以处理现实世界中的复杂数据和多模数据。
Sep, 2018
我们提出了 UniGraph 框架,通过使用文本属性图(TAGs)来训练图基础模型,实现对未见过的图和任务在不同领域中的泛化能力。我们的方法采用了级联的语言模型(LMs)和图神经网络(GNNs)构建的骨干网络以及基于掩码图建模(MGM)的自我监督训练目标,并引入大型语言模型(LLMs)进行图指令调优,进而使模型能够进行零样本预测。在各种图学习任务和领域的全面实验证明了我们模型在未见过的图的自我监督表示学习、少样本上下文转移和零样本转移方面的有效性,甚至超越或匹配了在目标数据集上进行受监督训练的 GNNs 的性能。
Feb, 2024
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
本文介绍一种新的问题设置,探索学习通用图结构学习模型以在开放环境下推广,从而进一步优化可适应特定图数据集的图结构,通过多个特定的 GNN 模型应对多样化数据集。
Jun, 2023