通过超图对称打破实现高阶关联预测的表达力
通过关系超图进行链接预测的研究,提出了两种框架,并通过相应的关系 Weisfeiler-Leman 算法和一些自然逻辑形式主义的广泛实证分析,证明了所提模型架构的表达能力。在各种关系超图基准测试中,所得到的模型架构明显优于每个基线模型,对于归纳链接预测具有领先水平的结果,从而开启了图神经网络在完全关系结构中的应用。
Feb, 2024
为优化基于超图的数据表示学习中的超图结构,我们提出一种名为 DeepHGSL 的深度学习超图结构学习的通用范式,并引入信息瓶颈原理来构建损失函数,以减少超图结构中的噪声信息,从而提取更加鲁棒的特征表达,在四个基准数据集上的实验结果表明了模型的有效性和鲁棒性。
Aug, 2022
通过实验得出以下结论:(a)小 n 足以实现精度与近乎完美近似值相当, (b) 当任务变得更加具有挑战性时,大的 n 会带来更多益处, (c) 对于那些成对交互不太能够说出高阶交互的数据集,在降为两两抽象时,将失去很多精度。
Jan, 2020
本研究探讨了将图而非超图作为表示实际世界互联系统的建模选择的影响,提出了超图投影导致高阶关系丢失的两个普遍模式,并量化了在无额外帮助下恢复丢失高阶结构的组合不可能性。此外,基于学习的超图重建方法通过使用超边分布的重要统计量,在不同设置下在 8 个真实世界数据集上展示了良好的性能,并通过蛋白质排名和链接预测的用例展示了重建超图的优势。
Jan, 2024
提出了一种名为 ELPH 的全图 GNN 和一种高度可扩展的模型 BUDDY,前者通过哈希传递子图草图以近似 SGNN 中的关键组件,后者使用特征预计算来规避 GPU 内存限制,而且两者在标准 LP 基准测试上性能均优于现有的 SGNN 模型
Sep, 2022
通过在 Transformer 的注意力矩阵中编码高阶图结构,HOT 模型在图表示学习中的动态问题中提高了链接预测的准确性,同时通过设置层次结构在注意力矩阵上显著减少内存占用。与其他动态图表示学习方案相比,HOT 在 MOOC 数据集上实现了相对较高的准确性,分别比 DyGFormer、TGN 和 GraphMixer 分别高出 9%、7% 和 15%。
Nov, 2023
使用高阶交互作用模型,研究 19 个数据集的时空演化,证明高阶交互作用种类多样,同一系统类型的数据集具有一致的高阶结构模式,同时,密度与强度是高阶组织的竞争指标,并提出高阶链接预测作为模型和算法的基准问题,发现与传统的成对链接预测有根本区别。
Feb, 2018
本文提供了一种统一的方法来研究增强次图 GNN 的架构,包括理论框架和对子图增强 GNN 可表达性的已知结果进行扩展,同时研究了三种用于学习采样子图的方法,通过实验证明了数据驱动架构可以提高标准基准数据集的预测精度,同时减少计算时间。
Jun, 2022
本文探讨了图同构、图神经网络的表达能力及其应用。作者提出了 k - 阶不变 / 本质等变图神经网络,并将此网络应用于图分类的任务中。实验表明,模型在数据集上表现的优异,证明了本文所提出的模型是有实用价值的。
May, 2019