NTFormer:一种用于节点分类的复合节点标记图注意力转换器
本文提出了基于结构感知(Transformers)的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
本文提出了一种名为Tokenized Graph Transformer(TokenGT)的新颖神经网络,它可以用于大规模图形学习,通过节点和边的独立表示进行转换,并且通过合适的token嵌入,TokenGT可以在理论上至少与由等变线性层组成的不变图网络(2-IGN)一样有潜力进行表现,实践中,TokenGT在大规模图形数据集(PCQM4Mv2)上的表现不仅优于基于消息传递的图神经网络(GNN)基线,而且与具有复杂图特定归纳偏差的变型Transformer相比也具有竞争力。
Jul, 2022
本研究提出了一种新的图形 Transformer 架构,称为 Anchor Graph Transformer(AGFormer),通过利用锚图模型将节点到节点的消息传递转换为锚到锚和锚到节点的消息传递过程,从而比常规节点到节点的 Transformer 更高效且更具鲁棒性。
May, 2023
本文提出了一种基于新的所有对消息传递机制和核化Gumbel-Softmax算子的节点分类网络,名叫NodeFormer,特别针对处理大规模图中的长距离依赖、边的不完整性等问题提出了解决方案,并在多项实验中验证了其有效性。
Jun, 2023
本文旨在提出一个简化的图结构Transformers算法架构(SGFormer),该架构基于一个简单的attention模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
Topology-Informed Graph Transformer (TIGT) enhances discriminative power in detecting graph isomorphisms and overall performance of Graph Transformers, outperforming previous models in classifying isomorphism classes of graphs and across various benchmark datasets.
Feb, 2024
用个性化PageRank(PPR)对每个节点进行令牌化,并在此令牌列表上应用标准的多头自注意力机制,以计算其节点表示。借助PPR令牌化方法,使得以分批加载节点的令牌列表进行图转换器的小批量训练成为可能。此外,通过在结构和内容的基础上创建多种类型的虚拟连接,能够将本地和全局上下文、长距离交互以及异源信息编码到每个节点的令牌列表中,从而形成我们的虚拟连接排序图转换器(VCR-Graphormer)模型。
Mar, 2024
提出了一种名为GCFormer的新型图形变压器,该模型使用混合令牌生成器来捕捉多样性图形信息的两种类型的令牌序列,并采用定制的基于变压器的骨干结构从这些生成的令牌序列中学习有意义的节点表示。并且,GCFormer引入了对比学习来从正负令牌序列中提取有价值的信息,提高了学习到的节点表示的质量。在各种数据集上进行的大量实验结果表明,与代表性的图神经网络(GNNs)和图形变压器相比,GCFormer在节点分类方面具有优势。
Jun, 2024
图转换器是机器学习中的一个新兴领域,提供了一种针对图结构数据的神经网络模型。本文调研了图转换器研究的最新进展和挑战,从建立概念开始,探索了图转换器的设计观点,进一步提出了基于深度、可扩展性和预训练策略的图转换器分类法,并总结了开发有效图转换器模型的关键原则。除了技术分析,还讨论了图转换器模型在节点级、边级和图级任务中的应用以及在其他应用场景中的潜力。最后,这篇论文还指出了领域中的一些挑战,如可扩展性和效率、泛化能力和鲁棒性、可解释性和可解释性、动态和复杂图形、数据质量和多样性,并为图转换器研究的未来方向进行了展望。
Jul, 2024