本文提出了一种新的 GNN 网络架构 LSPE,通过引入可学习的位置编码对节点的结构表达和位置表达进行解耦,应用在分子数据集上的实验结果表明 LSPE 能显著提高模型性能。
Oct, 2021
本文介绍了新的图神经网络 $ extit {Spectral Attention Network}$ (SAN),通过学习节点位置编码 (LPE) 来处理图结构数据,并采用全连接 Transformer 作为模型框架,有效地解决了信息瓶颈问题和节点位置定义问题,从而在 4 个标准元数据集上表现出超过同类模型的性能。
Jun, 2021
该研究通过理论探索首次分析了浅层图变换器在半监督节点分类中的应用。它使用了自注意力和位置编码,并描述了实现理想的泛化误差所需的样本复杂度和迭代次数的定量特征。此外,文中还展示了自注意力和位置编码如何通过稀疏化注意力图和在训练过程中促进核心邻域,从而增强了图变换器的特征表示能力。实验证明了我们的理论结果。
Jun, 2024
图变换器(GTs)通过计算节点对的自注意力,而不考虑节点位置信息,促进了对图结构数据的理解。为了解决这一限制,我们引入了一种创新且高效的框架,将位置编码(PEs)引入 Transformer,生成一组可学习的位置编码,这些位置编码存在于非欧几里德域中的双曲空间。通过这种方法,我们可以探索用于特定下游任务的 PEs 的多种选择选项,利用双曲神经网络或双曲图卷积网络。此外,我们重新使用这些位置编码来减轻深层图神经网络(GNNs)中的过度平滑的影响。对分子基准数据集、合著作者网络和共同购买网络进行的全面实验证实了双曲位置编码在提高深层 GNN 性能方面的有效性。
Dec, 2023
本文提出了一种用于任意图的变形器神经网络结构,在注意力机制中使用了邻域连接性,用拉普拉斯特征向量代替位置编码,使用批量归一化层代替层归一化,支持边特征表示。实验表明,该结构的性能优于传统的 transformer 模型。
Dec, 2020
本文提出了基于结构感知 (Transformers) 的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
GPSE 是第一个训练图编码器以捕获丰富的位置和结构编码表示来增强任何 GNN 的编码器,其可用于提取图形位置和结构信息的大型预训练模型的开发并突出它们作为明确计算 PSE 和现有的自监督预训练方法的可行替代方案。
Jul, 2023
设计有效的位置编码对于构建强大的图形变压器和增强消息传递图神经网络至关重要。我们提出了稳定且表达能力强的位置编码(SPE),它是第一个经过验证的稳定架构,同时尊重特征向量的所有对称性,并且至少与现有方法一样具有表达能力,对于基础不变函数非常强大,同时在分子属性预测和超出分布泛化任务上表现出改进的泛化性能。
Oct, 2023
本文通过泛化定义拉普拉斯嵌入的优化问题,提出了一族新的图形式的位置编码,并讨论了一种计算这些位置编码的方法,证实了这种新的位置编码可以提高 MPNN 的表述能力,同时给出了初步的实验结果。
Oct, 2022
图转换器的区分能力与位置编码的选择紧密相关,本文旨在理解绝对位置编码和相对位置编码之间的关系,并展示了在图转换器中如何交换这两种类型的位置编码而保持它们的区分能力。基于理论结果,我们对几种位置编码进行了研究并比较了它们在转换器中的区分能力,从而为位置编码的未来设计提供指导。
Feb, 2024