SGFormer:具有无近似线性复杂度的单层图变换器
该论文提出了一种名为Edge-augmented Graph Transformer (EGT)的框架来处理任意形式的结构数据,其中使用全局自我关注作为聚合机制,并通过边缘通道来演化结构信息,从而在图结构数据的学习任务中超越了卷积/消息传递图神经网络,并在OGB-LSC PCQM4Mv2数据集上实现了量子化学回归任务的最新性能。
Aug, 2021
本文提出了基于结构感知(Transformers)的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
本研究提出了一种名为DET的新型Transformer架构,采用结构编码器聚合连接邻居的信息和语义编码器聚焦于远距离节点,通过自监督训练寻找所需的远距离邻居,比使用多跳邻居的方法更为优越。实验结果表明,DET在处理分子、网络和各种规模的知识图谱方面比对应的最新方法具有更优越的性能表现。
Feb, 2022
本研究提出了一种关于如何构建通用、强大、可扩展的图形Transformer的方案,其中包括位置/结构编码、本地消息传递机制、全局注意机制等主要条件,可适用于小规模和大规模图形,并在16项基准测试中取得高竞争力的结果。
May, 2022
本文旨在研究图转换器的深度问题,发现当前的图转换器深度受到全局注意力瓶颈的制约,限制其对关键子结构和表达特征的关注。作者提出了一种名为DeepGraph的新型图转换器模型,结合子结构记号和局部注意力,以提高全局注意力对子结构的关注能力和表达能力,解决了自注意力深度问题,取得了在各种图形基准测试中的最新成果。
Mar, 2023
提出一种新的变压器体系结构,名为Graph Propagation Transformer(GPTrans),利用一种名为Graph Propagation Attention(GPA)的新注意机制,在构建变压器块中的注意模块时,充分考虑了图形中节点和边的信息传递,并在多个基准数据集上验证了其优于许多先进的变压器的性能。
May, 2023
本文旨在提出一个简化的图结构Transformers算法架构(SGFormer),该架构基于一个简单的attention模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
我们认为Transformer模型本质上是图到图的模型,序列只是一种特殊情况。注意力权重在功能上等价于图中的边。我们的图到图Transformer架构明确地表达了这个能力,通过将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的Transformer模型中学习出的潜在图中。添加迭代的图优化过程提供了输入、输出和潜在图的联合嵌入,使得非自回归图预测能够优化完整图,无需任何专门的流水线或解码策略。实证结果表明,该架构在对各种语言结构建模方面取得了最先进的准确性,与预训练学习的潜在语言表示非常有效地集成在一起。
Oct, 2023
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了LargeGT框架,并取得了3倍的加速和16.8%的性能提升。
Dec, 2023
图转换器是机器学习中的一个新兴领域,提供了一种针对图结构数据的神经网络模型。本文调研了图转换器研究的最新进展和挑战,从建立概念开始,探索了图转换器的设计观点,进一步提出了基于深度、可扩展性和预训练策略的图转换器分类法,并总结了开发有效图转换器模型的关键原则。除了技术分析,还讨论了图转换器模型在节点级、边级和图级任务中的应用以及在其他应用场景中的潜力。最后,这篇论文还指出了领域中的一些挑战,如可扩展性和效率、泛化能力和鲁棒性、可解释性和可解释性、动态和复杂图形、数据质量和多样性,并为图转换器研究的未来方向进行了展望。
Jul, 2024