图排序注意力网络
通过将 GNN 扩展为涉及节点特征、边特征和激活模式的标量积的总和,我们提出了一种高效的分析方法来计算每个节点或边特征对每个标量积的贡献,并通过聚合展开形式中所有标量积的贡献来推导出每个节点和边的重要性,从而创造出忠实、有区别且在相似样本之间稳定的 GNN 解释。通过在合成和真实世界数据上进行大量实验证明,我们的方法不仅在常用的准确度度量上优于各种最先进的 GNN 解释器,而且在区分度和稳定性方面的优势明显。
Jan, 2024
本文提出了一种高阶图注意力网络 (H-GAT),该网络能够捕捉高阶结构,同时将基本面分析因素与技术分析因素相结合,通过预测股票收益等指标进行实证分析,证明了 H-GAT 方法的优越性。
Jun, 2023
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
该研究介绍了 Graph Attention Networks (GATs) 架构,它们被认为是最先进的图形表示学习架构之一,但存在限制性静态注意力机制,限制了它们在表达简单图形问题方面的能力;因此,提出了一种动态图形注意力变量 GATv2,相对于 GAT 更具表现力。
May, 2021
提出了一种名为 Directional Graph Attention Network (DGAT) 的新型图神经网络结构,利用特征注意力和全局方向信息提高图信息的传播能力,并通过拓扑信息引导的节点剪枝和边添加机制以及新的拉普拉斯矩阵来改善 GAT 存在的局限性,实验证明在真实数据集和合成数据集上,DGAT 在性能上优于传统的 GAT 模型,并在 7 个真实数据集中的 6 个数据集上超越了现有的最先进模型。
Mar, 2024
基于图神经网络 (Graph Neural Networks) 的优化和学习动态尚未被广泛探索,本研究通过分析图注意力网络 (Graph Attention Network) 提出的保守定律解释了标准初始化中参数变动困难的现象,并提出了一种初始化方案来平衡图注意力网络,使得深层网络更易于训练并加速收敛速度。
Oct, 2023
本文介绍了基于图神经网络中的注意力机制的表征性质,并发现由于忽略注意力汇聚中的基数信息,这些基于注意力机制的 GNNs 有时会失败,因此提出了一种能够保留基数信息的注意力模型,该模型可适用于任何类型的注意力机制,并在节点和图分类任务上取得了竞争性能.
Jul, 2019
该研究介绍了图卷积注意力层(CAT)和 GNN 架构(L-CAT),旨在充分利用两种方法的优势并自动插值 GCN,GAT 和 CAT。研究结果表明,在一系列数据集中,L-CAT 能够有效地组合不同的 GNN 层,优于竞争方法,从而减少了交叉验证的需求。
Nov, 2022
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019