本文提出了UniGNN框架,使得现有的图神经网络能够直接应用于超图,并证明了该框架比传统算法更有效地处理超图数据。
May, 2021
该研究提出了一种基于双超图转换的边表示学习框架,将图中的边转换为超图的节点,并应用基于消息传递的技术进行边的表示学习和综合,并将其应用于图表示和分类中。结果表明该方法优于现有的图表示和汇聚方法。
Jun, 2021
本文提出一种新型的图神经网络框架UGNN,用于半监督图分类,在有限标注数据和大量未标注数据的情况下,利用子图的视角来充分利用未标注数据,并且通过使用Sinkhorn-Knopp算法来学习已知和未知类别的语义原型,并在不同的子图视图下进行大量实验,证明了UGNN在不同设定下的有效性。
May, 2023
本文介绍了混合图(即高阶图)的统一定义以及混合图基准测试(HGB),并提供了可扩展的评估框架和支持代码库以方便在HGB 上训练和评估GNNs;我们的实证研究揭示了各种研究机会和空白。
Jun, 2023
本文提出了一种名为LFH的超图学习框架,能够通过动态超边构建和注意力嵌入更新利用图的异质性属性进行超图学习,在多个数据集上的实验证明其有效性。
Jul, 2023
本论文旨在探讨超图学习方法和基准数据集的一些悬而未决的问题,其中提出了一种新的同质性概念,探索了高阶网络结构和动态的分析框架,并引入了 MultiSet 框架重新定义 Hypergraph Neural Networks。
Oct, 2023
提出了一种拓扑引导的超图变换网络,通过保留结构本质学习图中的高阶关系,设计了简洁而有效的结构和空间编码模块将节点的拓扑和空间信息融入其表示,并提出了一种结构感知的自注意机制,从语义和结构角度发现重要节点和超边。实验证明,所提模型在节点分类任务上的性能始终优于现有方法。
本研究提出了一种新颖的单阶段信息传递范式,用于超图中的全局和局部信息传播模型,在超图节点表示学习的Transformer框架HGraphormer中引入此范式,通过结合注意力矩阵和超图拉普拉斯矩阵将超图结构信息注入Transformer,实验表明HGraphormer在半监督超节点分类任务上表现优于最新的超图学习方法,提升准确率在2.52%至6.70%之间。
Dec, 2023
通过全球节点和超边之间的全球关联以及捕捉节点和超边之间的局部连接性,提出了一种新颖的超图学习框架,称为HyperGraph Transformer(HyperGT),该框架利用基于Transformer的神经网络结构来有效地处理超图结构化数据,实现了全面的超图表示学习,并在超图节点分类任务中取得了出色的性能,超过了现有方法,建立了新的基准水平。
在节点分类的背景下,本文理论上证明了在超图上,大多数 HyperGNN 可以使用带有超图的加权团展开的 GNN 进行近似。通过加权团展开的 GNN,我们提出了一种简单高效的框架 WCE-GNN,用于超图节点分类,并在九个真实超图节点分类基准上的实验证明了 WCE-GNN 相比于最先进的 HyperGNN 具有更高的分类准确性,以及更好的内存和运行时效率。
Feb, 2024