本研究采用图神经网络(GNN)解决经典的非线性回归问题 —— 网络定位,并发现 GNN 在精度、鲁棒性和计算时间方面潜在成为大规模网络定位的最佳解决方案,适当的通信范围阈值对其高性能至关重要。此外,本研究提出的基于 GNN 的方法通过数据聚合、非线性可见性去噪和低通滤波等技术使其在邻居选择阈值上的优化成为可能。仿真结果表明,该方法远优于先前的最新基准。
Oct, 2020
本研究提出了一种新型的注意力图神经网络 (Attentive GNN),该网络通过三重注意力机制(节点自注意力、邻域注意力、层记忆注意力)处理 GNN 深度学习中存在的过拟合和过度平滑问题,从而最终提升了其在小样本学习任务上的性能表现。实验证明,相比于其他现有的 GNN 和 CNN 方法,在深度神经网络骨架 (ConvNet-4 和 ResNet) 和归纳、传导方式下,在 mini-ImageNet 和 tiered-ImageNet 数据集上,该新型图神经网络取得了令人满意的结果。
Jul, 2020
本研究关注于图神经网络中节点的注意力机制及其效果影响,特别地,对比研究了图同构网络,在设计出一系列简单的图推理任务后,研究发现在典型环境下注意力的作用微乎其微,甚至有害作用,但在某些条件下可以大幅度提高分类性能达到 60% 以上。为了实现这些条件,通常需要在初始化或监督训练注意力方面下功夫,并提出了一种弱监督训练注意力的方法,实现效果与有监督学习基本一致,比无监督学习在多个数据集上都要好。
May, 2019
本文提出一种使用注意力机制的图神经网络,通过去除中间的全连接层,并结合图结构实现对邻域的动态自适应的总结,从而达到降低参数数量,提高半监督学习效果的目的。
Mar, 2018
本研究通过理论和实证分析,探讨了深度图注意力中涉及的一些问题现象,包括易受平滑功能影响和光滑累积注意力。由此,研究者提出了一种名为 AEROGNN 的新型 GNN 体系结构,用于深度图注意力,其已被证明可以缓解这些问题。
Jun, 2023
本文针对图神经网络进行多个实验,并研究其在节点分类问题中的理论表现。研究结果指出,图注意力机制可以区分类内和类间边缘,重要边的权重得以保留,进而实现完美的节点分类。
Feb, 2022
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019
该研究提出了一种以非局部聚合为基础的简单而有效的图神经网络框架,采用高效的注意力引导排序,用于解决不同类型的图数据集,实验结果表明,在效率和模型性能方面,该方法显著优于先前针对不同类型图案的最先进方法。
May, 2020
这篇研究提出一种鲁棒的图神经网络实现方法,明确考虑了观察拓扑中的扰动,通过优化可学习参数和真实图形来解决非可微且受限制的优化问题,适用于各种类型的图形,并可整合关于扰动的先验信息。通过多个数值实验评估了该方法的性能。
Dec, 2023
本文系统而集中地介绍了基于注意力机制的图神经网络在自然语言处理、计算机视觉和推荐系统等领域的应用,以及它们的优缺点。
Jun, 2022