拓扑指导的超图变换网络:揭示结构洞察以改进表示
通过全球节点和超边之间的全球关联以及捕捉节点和超边之间的局部连接性,提出了一种新颖的超图学习框架,称为 HyperGraph Transformer(HyperGT),该框架利用基于 Transformer 的神经网络结构来有效地处理超图结构化数据,实现了全面的超图表示学习,并在超图节点分类任务中取得了出色的性能,超过了现有方法,建立了新的基准水平。
Dec, 2023
本论文提出了一种名为 GTNs 的图转换器网络,能够在图上进行节点表示的学习,同时生成新的图结构以及识别原始图上未连接点之间有用的连接。实验表明,GTNs 有效地生成新的图结构,通过卷积在新图上产生具有强大表现力的节点表示,并在三个基准节点分类任务中取得了最佳表现。
Nov, 2019
图分类是一项重要的图结构数据学习任务,我们提出了一种新颖的 Tensor-view 拓扑图神经网络 (TTG-NN),利用持久同调、图卷积和张量运算构建了一种简单而有效的拓扑深度学习方法,能够同时捕捉局部和全局层面上的张量表示和图结构信息。在实际数据实验中,TTG-NN 在各种图基准数据上表现优于其他 20 种最先进的方法。
Jan, 2024
本文提出了基于结构感知 (Transformers) 的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
本文介绍了一种用于建模 Web 规模异构图的异构图转换器架构(HGT),通过设计基于节点类型和边类型的参数来实现异构性,并引入相对时间编码技术和异构迷你批图采样算法来处理动态异构图数据,实验表明,所提出的 HGT 模型在各种下游任务中始终优于所有最先进的 HNN 基线 9%至 21%。
Mar, 2020
提出了一种基于张量的高阶超图神经网络模型,它利用高阶外积特征传递实现了对高阶信息的有效提取,并通过部分对称 CP 分解方法降低了模型复杂度;在两个三维视觉对象分类数据集上进行的实验结果表明了其性能优越性。
Jun, 2023
提出了一种结合 GNN 和 Transformer 的新框架,利用 GNN 的局部信息汇聚和 Transformer 的全局信息建模能力解决过度平滑问题,构建了 GTC 体系结构,通过对跨视图信息进行自我监督的对比学习任务实现异构图形表示学习。
Mar, 2024
本文提出了基于超伯利模型的时间图网络(HTGN),旨在通过利用超伯利几何的指数能力和层次意识来捕捉时变行为并保持层次信息,从而在时间图嵌入方面取得更好的效果。在多个真实数据集上的实验结果表明,HTGN 在各种时间链接预测任务中的表现优于竞争方法。
Jul, 2021
本文针对异构信息网络(HIN)的图表示学习进行了研究,并提出了一种新颖的基于异构图结构注意力神经网络(HetSANN)的方法,该方法在不需要领域专家设计元路径方案的情况下能够自动处理异构信息。实验证明,该方法相较于现有的 HIN 嵌入模型有显著和一致的提升。
Dec, 2019
Topology-Informed Graph Transformer (TIGT) enhances discriminative power in detecting graph isomorphisms and overall performance of Graph Transformers, outperforming previous models in classifying isomorphism classes of graphs and across various benchmark datasets.
Feb, 2024