本文针对图神经网络进行多个实验,并研究其在节点分类问题中的理论表现。研究结果指出,图注意力机制可以区分类内和类间边缘,重要边的权重得以保留,进而实现完美的节点分类。
Feb, 2022
提出了一种基于图神经网络的网络定位方法,通过结合关注机制,在严重的非直线视线传播情况下实现了卓越的稳定性和准确性,消除了离线校准或非直线视线识别的需求。
Nov, 2023
本研究提出了一种新型的注意力图神经网络 (Attentive GNN),该网络通过三重注意力机制(节点自注意力、邻域注意力、层记忆注意力)处理 GNN 深度学习中存在的过拟合和过度平滑问题,从而最终提升了其在小样本学习任务上的性能表现。实验证明,相比于其他现有的 GNN 和 CNN 方法,在深度神经网络骨架 (ConvNet-4 和 ResNet) 和归纳、传导方式下,在 mini-ImageNet 和 tiered-ImageNet 数据集上,该新型图神经网络取得了令人满意的结果。
Jul, 2020
本文提出了一种基于自我注意机制的改进图神经网络(GNN)方法以及一个基于预训练模型的半监督自我训练方法。实验结果表明这些方法都可以有效地提高链接预测任务的性能。
Sep, 2022
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
本文研究了如何将更丰富的结构分布用于深度神经网络中的嵌入式分类推理,通过两种不同的结构注意力网络:线性链条件随机场和基于图形的解析模型的实验,展示了这些结构的注意力网络超过了基线的注意力模型在各种合成和真实任务中的表现。
Feb, 2017
本研究提出了一种可扩展的半监督学习方法,该方法基于一种直接作用于图形的高效卷积神经网络变体,通过局部一阶逼近实现了谱图卷积的选择,其模型在节点数量上线性地扩展并学习编码局部图结构和节点特征的隐藏层表示,在引用网络和知识图数据集上的若干实验中,证明了我们的方法的明显优越性。
Sep, 2016
本文提出了一种新的基于注意力机制的图神经网络 GRAPH-BERT,通过在局部上下文中训练采样的无链接子图来学习 GRAPH-BERT,进而在节点分类和图聚类任务中通过微调 GRAPH-BERT 取得了良好的效果。
Jan, 2020
本文提出了一种基于自监督任务的改进图注意力模型 SuperGAT,用于学习在有噪声图中更具有区分性的表达。研究发现,同质性和平均度是影响注意力形式和自监督任务有效性的两个图特征,并提供了在这两个情况下使用的注意力设计指南。在 17 个真实世界数据集上的实验结果表明,SuperGAT 的表现优于基线模型。
Apr, 2022
该论文提出了一种基于分层注意力机制的异构图神经网络,包括节点层次和语义层次的注意力机制,通过从元路径邻居中汇总特征来生成节点嵌入,其在三个真实的异构图上表现出优越性能且有助于图分析。
Mar, 2019