图传播变压器用于图表示学习
本论文提出了一种名为GTNs的图转换器网络,能够在图上进行节点表示的学习,同时生成新的图结构以及识别原始图上未连接点之间有用的连接。实验表明,GTNs有效地生成新的图结构,通过卷积在新图上产生具有强大表现力的节点表示,并在三个基准节点分类任务中取得了最佳表现。
Nov, 2019
该论文提出了一种名为Edge-augmented Graph Transformer (EGT)的框架来处理任意形式的结构数据,其中使用全局自我关注作为聚合机制,并通过边缘通道来演化结构信息,从而在图结构数据的学习任务中超越了卷积/消息传递图神经网络,并在OGB-LSC PCQM4Mv2数据集上实现了量子化学回归任务的最新性能。
Aug, 2021
本文提出了基于结构感知(Transformers)的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
这篇综述性论文详细调查了Transformer模型在图结构数据中的应用。作者们将现有的Transformer模型分为三类,着重探究了辅助模块、基于图的位置嵌入和改进的注意力矩阵等方面,针对不同类型的图形数据进行了性能对比,实验证实了改进后的Graph Transformer模型在各种图形任务上的优越性。
Feb, 2022
本研究提出了一种关于如何构建通用、强大、可扩展的图形Transformer的方案,其中包括位置/结构编码、本地消息传递机制、全局注意机制等主要条件,可适用于小规模和大规模图形,并在16项基准测试中取得高竞争力的结果。
May, 2022
本文旨在提出一个简化的图结构Transformers算法架构(SGFormer),该架构基于一个简单的attention模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
我们认为Transformer模型本质上是图到图的模型,序列只是一种特殊情况。注意力权重在功能上等价于图中的边。我们的图到图Transformer架构明确地表达了这个能力,通过将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的Transformer模型中学习出的潜在图中。添加迭代的图优化过程提供了输入、输出和潜在图的联合嵌入,使得非自回归图预测能够优化完整图,无需任何专门的流水线或解码策略。实证结果表明,该架构在对各种语言结构建模方面取得了最先进的准确性,与预训练学习的潜在语言表示非常有效地集成在一起。
Oct, 2023
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了LargeGT框架,并取得了3倍的加速和16.8%的性能提升。
Dec, 2023
图转换器是机器学习中的一个新兴领域,提供了一种针对图结构数据的神经网络模型。本文调研了图转换器研究的最新进展和挑战,从建立概念开始,探索了图转换器的设计观点,进一步提出了基于深度、可扩展性和预训练策略的图转换器分类法,并总结了开发有效图转换器模型的关键原则。除了技术分析,还讨论了图转换器模型在节点级、边级和图级任务中的应用以及在其他应用场景中的潜力。最后,这篇论文还指出了领域中的一些挑战,如可扩展性和效率、泛化能力和鲁棒性、可解释性和可解释性、动态和复杂图形、数据质量和多样性,并为图转换器研究的未来方向进行了展望。
Jul, 2024
本研究解决了在大图上学习表示的效率问题,挑战在于现有变换器模型通常过于复杂且层数过多。提出的SGFormer简化了模型架构,通过单层全局注意力实现线性缩放,并保持了表示学习的能力。研究表明,SGFormer在中等规模图上具有显著的推理加速效果,尤其在标记数据有限的情况下依然表现出竞争力。
Sep, 2024