Hyper-SAGNN: 一种基于自注意力的超图神经网络
本文针对异构信息网络(HIN)的图表示学习进行了研究,并提出了一种新颖的基于异构图结构注意力神经网络(HetSANN)的方法,该方法在不需要领域专家设计元路径方案的情况下能够自动处理异构信息。实验证明,该方法相较于现有的 HIN 嵌入模型有显著和一致的提升。
Dec, 2019
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019
提出了一种名为 Seq-HyGAN 的超图注意力网络模型用于解决序列分类的挑战,并使用两级注意机制生成序列表示为超边,同时学习每个序列的关键子序列。实验结果表明,Seq-HyGAN 模型可以有效地分类序列数据并显着优于基线。
Mar, 2023
本研究提出了一种名为 GCN-SA 的新型图学习框架,它具有出色的节点级表示学习的泛化能力,并且通过自注意机制和改进的转换器块实现了对长程依赖关系的捕捉,从而使其能够在具有不同程度同质性的图上进行表示学习。
Mar, 2024
本文提出了一种基于自监督任务的改进图注意力模型 SuperGAT,用于学习在有噪声图中更具有区分性的表达。研究发现,同质性和平均度是影响注意力形式和自监督任务有效性的两个图特征,并提供了在这两个情况下使用的注意力设计指南。在 17 个真实世界数据集上的实验结果表明,SuperGAT 的表现优于基线模型。
Apr, 2022
本论文通过对异构图神经网络(HGNN)中注意力机制、多层结构进行深入研究,提出了 Simple and Efficient Heterogeneous Graph Neural Network(SeHGNN),该方法采用轻量级平均聚合器预先计算邻居聚合以捕获结构信息,采用长元路径和 Transformer 语义融合模块来更好地利用语义信息,结果表明 SeHGNN 具有简单的网络结构、高预测准确性和快速的训练速度。
Jul, 2022
本研究提出了可扩展和自适应图神经网络(SAGN),采用基于注意机制的邻域信息聚集和自我 - 标签增强框架(SLE),以结合半监督的节点标签训练。实验结果表明,相比其他基于采样和非采样的方法,SAGN 实现了更好或相当的结果,并且 SLE 可以进一步提高性能。
Apr, 2021
本研究提出了一个基于 simplicial complex 的复杂语义表示方法:Simplicial Graph Attention Network (SGAT),通过将非目标节点的特征放置在简单形上,表示非线性、高阶节点或边缘的交互作用,并使用注意机制和上邻接来生成表示。实验证明,与其他当前最先进的异构图学习方法相比,SGAT 在节点分类任务和提取结构信息方面表现更好。
Jul, 2022
该论文提出了一种基于分层注意力机制的异构图神经网络,包括节点层次和语义层次的注意力机制,通过从元路径邻居中汇总特征来生成节点嵌入,其在三个真实的异构图上表现出优越性能且有助于图分析。
Mar, 2019
提出了利用超几何空间和元路径实例学习异构图的向量表示的超几何异构图注意力网络(HHGAT),在三个真实的异构图数据集上的实验证明 HHGAT 在节点分类和聚类任务中优于现有的异构图嵌入模型。
Apr, 2024