本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
提出了一种名为 Directional Graph Attention Network (DGAT) 的新型图神经网络结构,利用特征注意力和全局方向信息提高图信息的传播能力,并通过拓扑信息引导的节点剪枝和边添加机制以及新的拉普拉斯矩阵来改善 GAT 存在的局限性,实验证明在真实数据集和合成数据集上,DGAT 在性能上优于传统的 GAT 模型,并在 7 个真实数据集中的 6 个数据集上超越了现有的最先进模型。
Mar, 2024
本文提出了一种基于自监督任务的改进图注意力模型 SuperGAT,用于学习在有噪声图中更具有区分性的表达。研究发现,同质性和平均度是影响注意力形式和自监督任务有效性的两个图特征,并提供了在这两个情况下使用的注意力设计指南。在 17 个真实世界数据集上的实验结果表明,SuperGAT 的表现优于基线模型。
Apr, 2022
该研究介绍了 Graph Attention Networks (GATs) 架构,它们被认为是最先进的图形表示学习架构之一,但存在限制性静态注意力机制,限制了它们在表达简单图形问题方面的能力;因此,提出了一种动态图形注意力变量 GATv2,相对于 GAT 更具表现力。
May, 2021
基于图神经网络 (Graph Neural Networks) 的优化和学习动态尚未被广泛探索,本研究通过分析图注意力网络 (Graph Attention Network) 提出的保守定律解释了标准初始化中参数变动困难的现象,并提出了一种初始化方案来平衡图注意力网络,使得深层网络更易于训练并加速收敛速度。
Oct, 2023
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019
本研究提出了一个基于 simplicial complex 的复杂语义表示方法:Simplicial Graph Attention Network (SGAT),通过将非目标节点的特征放置在简单形上,表示非线性、高阶节点或边缘的交互作用,并使用注意机制和上邻接来生成表示。实验证明,与其他当前最先进的异构图学习方法相比,SGAT 在节点分类任务和提取结构信息方面表现更好。
Jul, 2022
本研究提出了一种通过训练中的注意力基于边界值约束来缓解过度平滑和过度拟合的图注意力网络架构。实验证明该方法在常见基准数据集上比之前最先进的图注意力方法有了显著的改进
Oct, 2019
本研究设计了一种新颖的图神经网络,通过自注意机制,优先适应不同的图的不同节点特征和拓扑结构,且考虑到正负权重和节点对称性,在处理同构和异构图分类任务上,相较于传统的图神经网络实现了最领先的性能。
May, 2023
本文针对图神经网络进行多个实验,并研究其在节点分类问题中的理论表现。研究结果指出,图注意力机制可以区分类内和类间边缘,重要边的权重得以保留,进而实现完美的节点分类。
Feb, 2022