Transformer 在图表示学习中真的表现糟糕吗?
本文提出了一个结合 Subgraph GNNs 和 Graph Transformers 的架构,名为 Subgraphormer,通过将 Subgraph GNNs 的增强表达能力、消息传递机制和聚合方案与 Graph Transformers 中最重要的组件 —— 注意力机制和位置编码相结合。我们的方法基于 Subgraph GNNs 和自身的图像乘积之间的新联系,将 Subgraph GNNs 表述为在图像乘积上操作的 Message Passing Neural Networks (MPNNs)。我们利用这种表述设计了我们的架构:首先,我们设计了一个基于图像乘积的连接性的注意力机制。其次,我们提出了一种新颖高效的 Subgraph GNNs 位置编码方案,将其推导为图像乘积的位置编码。我们的实验结果显示,在广泛的数据集上,相比于 Subgraph GNNs 和 Graph Transformers,我们的方法显著提升了性能。
Feb, 2024
本文旨在提出一个简化的图结构 Transformers 算法架构 (SGFormer),该架构基于一个简单的 attention 模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
本文提出了一种用于任意图的变形器神经网络结构,在注意力机制中使用了邻域连接性,用拉普拉斯特征向量代替位置编码,使用批量归一化层代替层归一化,支持边特征表示。实验表明,该结构的性能优于传统的 transformer 模型。
Dec, 2020
本研究提出了一种新型变压器架构 Relphormer,其中引入 Triple2Seq 来动态采样上下文化子图序列作为输入以解决知识图谱中异构结构和语义信息难以捕获的问题,并提出了一种 novel self-attention 机制以编码关系信息。实验结果表明,相比基线模型,Relphormer 获得了更好的性能。
May, 2022
提出了一种基于 ego-graphs 的 Gophormer 模型,将 transformer 应用于节点分类任务,通过邻域采样缓解了规模问题,并采用 proximity-enhanced attention 机制捕捉节点间的结构偏差,通过一致性规则和多样本推理策略稳定训练和测试。Gophormer 在六个基准数据集上的实验表明了其超越了现有的图转换器和热门的 GNN,并揭示了图转换器的未来发展前景。
Oct, 2021
本研究在任务导向的角度下,综述了 GNN 与图 Transformer 在计算机视觉中的应用,根据输入数据的特征分为五个类别,并根据视觉任务,详细讨论了该问题所使用的不同基于 GNN 的方法、表现、挑战和未来方向。
Sep, 2022
本文提出了一种名为 “图变压器” 的模型,使用显式关系编码并允许两个远程节点之间的直接通信。与局部邻域信息交换的图神经网络不同,它提供了一种更有效的全局图结构建模方式,并在抽象意义表示文本生成和基于句法的神经机器翻译应用中表现出优异的性能。
Nov, 2019
这篇综述性论文详细调查了 Transformer 模型在图结构数据中的应用。作者们将现有的 Transformer 模型分为三类,着重探究了辅助模块、基于图的位置嵌入和改进的注意力矩阵等方面,针对不同类型的图形数据进行了性能对比,实验证实了改进后的 Graph Transformer 模型在各种图形任务上的优越性。
Feb, 2022
本篇论文研究了如何在 Transformer architecture 中注入图形结构偏差以更好地处理基于有向无环图的数据,包括构思了一个有效的注意机制来捕捉 DAG 的结构并提出了一种部分顺序的位置编码方法。作者在实验中证明了这个框架能够改善各种基线 transformers 的效果并使图 transformers 竞争力更强。
Oct, 2022