该研究介绍了 Graph Attention Networks (GATs) 架构,它们被认为是最先进的图形表示学习架构之一,但存在限制性静态注意力机制,限制了它们在表达简单图形问题方面的能力;因此,提出了一种动态图形注意力变量 GATv2,相对于 GAT 更具表现力。
May, 2021
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019
本文提出了一种改进图注意力网络中节点分类的方法,使其更能准确地区分不同类别的节点,在多个节点分类数据集上得到了较高的表现。
Jul, 2023
本研究提出了一种通过训练中的注意力基于边界值约束来缓解过度平滑和过度拟合的图注意力网络架构。实验证明该方法在常见基准数据集上比之前最先进的图注意力方法有了显著的改进
Oct, 2019
本文提出 Spectral Graph Attention Network 和 SpGAT-Cheby 两种新的基于注意力机制的子图表示学习算法,具备捕捉图形全局特征和更少的学习参数的能力,通过半监督节点分类实验验证了算法的效果。
Mar, 2020
本文通过系统性实验评估关注网络的层数与性能之间的关系,发现残差连接可以解决 Oversquashing 现象,提高 GAT 模型的性能。因此,我们提出了 ADGAT 变体模型,可根据图的稀疏性自适应选择层数,从而显着提高了模型的性能。
Jan, 2023
提出了一种名为 Directional Graph Attention Network (DGAT) 的新型图神经网络结构,利用特征注意力和全局方向信息提高图信息的传播能力,并通过拓扑信息引导的节点剪枝和边添加机制以及新的拉普拉斯矩阵来改善 GAT 存在的局限性,实验证明在真实数据集和合成数据集上,DGAT 在性能上优于传统的 GAT 模型,并在 7 个真实数据集中的 6 个数据集上超越了现有的最先进模型。
Mar, 2024
基于图神经网络 (Graph Neural Networks) 的优化和学习动态尚未被广泛探索,本研究通过分析图注意力网络 (Graph Attention Network) 提出的保守定律解释了标准初始化中参数变动困难的现象,并提出了一种初始化方案来平衡图注意力网络,使得深层网络更易于训练并加速收敛速度。
Oct, 2023
该研究介绍了图卷积注意力层(CAT)和 GNN 架构(L-CAT),旨在充分利用两种方法的优势并自动插值 GCN,GAT 和 CAT。研究结果表明,在一系列数据集中,L-CAT 能够有效地组合不同的 GNN 层,优于竞争方法,从而减少了交叉验证的需求。
Nov, 2022
本文探讨了基于图注意网络的 GATv2 在小型稀疏图结构中可能遇到的一些优化问题,并提出了改进的解决方案和方法,通过实验结果验证改进后的模型方案在节点级别回归任务中表现更好,同时提高了参数初始化的鲁棒性,并对其解释性进行了分析,以此来深入了解注意力机制。
May, 2023