Feb, 2024

子图形转化器:通过图产品统一子图图神经网络与图变形器

TL;DR本文提出了一个结合 Subgraph GNNs 和 Graph Transformers 的架构,名为 Subgraphormer,通过将 Subgraph GNNs 的增强表达能力、消息传递机制和聚合方案与 Graph Transformers 中最重要的组件 —— 注意力机制和位置编码相结合。我们的方法基于 Subgraph GNNs 和自身的图像乘积之间的新联系,将 Subgraph GNNs 表述为在图像乘积上操作的 Message Passing Neural Networks (MPNNs)。我们利用这种表述设计了我们的架构:首先,我们设计了一个基于图像乘积的连接性的注意力机制。其次,我们提出了一种新颖高效的 Subgraph GNNs 位置编码方案,将其推导为图像乘积的位置编码。我们的实验结果显示,在广泛的数据集上,相比于 Subgraph GNNs 和 Graph Transformers,我们的方法显著提升了性能。