AGFormer: 锚点图变换器实现高效图表示
本文介绍了一种基于 Transformer 的 GNN 模型,叫做 UGformer,用于学习图表示。UGformer 有两个变体,第一个变体利用 Transformer 对每个输入节点的一组采样邻居进行编码,第二个变体利用 Transformer 对所有输入节点进行编码。实验结果表明,第一个变体在归纳和非监督转导设置下实现了基准数据集上的最新最准确统计,第二个变体在归纳文本分类中获得了最高准确率。
Sep, 2019
通过全局感受野和几乎线性的复杂度,AnchorGT 提出了一种新颖的注意力结构,用于改进各种 GT 模型的可扩展性,实现更高的效果和更高的内存效率。
May, 2024
我们提出了一种新颖的 Attention-GCNFormer(AGFormer)模块,通过使用两个并行的 Transformer 和 GCNFormer 流来减少通道数,以精确捕捉邻接关节之间的局部依赖关系。通过以适应性方式融合这两种表示,AGFormer 模块在学习底层 3D 结构方面表现出更好的能力。通过堆叠多个 AGFormer 模块,我们提出了四个不同变体的 MotionAGFormer 模型,可以根据速度 - 准确性的权衡来选择。我们在两个常用基准数据集 Human3.6M 和 MPI-INF-3DHP 上评估了我们的模型。MotionAGFormer-B 取得了最先进的结果,分别为 38.4mm 和 16.2mm 的 P1 错误率。值得注意的是,与 Human3.6M 数据集上的前一最先进模型相比,它使用了四分之一的参数,并且计算效率提高了三倍。该模型的代码和模型可在指定的网址上获得。
Oct, 2023
关系感知图神经网络与变形器网络结合,同时将本地和全局特征嵌入目标节点,通过注意力融合模块和跳跃连接将全局嵌入与本地嵌入合并,在两个公共数据集和一个工业数据集上验证了其卓越性能。
Feb, 2024
SubFormer 是一种图变换器,通过消息传递机制对子图进行操作,减少了标记数量,增强了学习长距离交互的能力。在预测分子属性和化学结构方面,SubFormer 与最先进的图变换器相比,在计算成本的一小部分情况下保持着竞争力,并且在消费级显卡上进行训练的时间仅为几分钟。我们通过对化学结构的注意权重进行解读,展示了 SubFormer 表现出有限的过度平滑和避免了传统图神经网络常见的过度压缩问题。
Oct, 2023
本文旨在提出一个简化的图结构 Transformers 算法架构 (SGFormer),该架构基于一个简单的 attention 模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
本文提出了一种新的有效的锚匹配转换器(AMatFormer)用于特征匹配问题,以在一些锚点特征上进行自 / 交叉注意,进而学习所有基本特征的表示,并采用共享的 FFN 模块将两个图像的特征嵌入公共域中,以学习匹配问题的共识特征表示,在几项基准实验中证明了 AMatFormer 匹配方法的有效性和效率。
May, 2023
本文提出了一种基于新的所有对消息传递机制和核化 Gumbel-Softmax 算子的节点分类网络,名叫 NodeFormer,特别针对处理大规模图中的长距离依赖、边的不完整性等问题提出了解决方案,并在多项实验中验证了其有效性。
Jun, 2023
提出了一种名为 GCFormer 的新型图形变压器,该模型使用混合令牌生成器来捕捉多样性图形信息的两种类型的令牌序列,并采用定制的基于变压器的骨干结构从这些生成的令牌序列中学习有意义的节点表示。并且,GCFormer 引入了对比学习来从正负令牌序列中提取有价值的信息,提高了学习到的节点表示的质量。在各种数据集上进行的大量实验结果表明,与代表性的图神经网络(GNNs)和图形变压器相比,GCFormer 在节点分类方面具有优势。
Jun, 2024
我们介绍了一种新颖的异步图生成器(AGG),它是一种多通道时间序列的图神经网络体系结构,通过将观测值建模为动态图上的节点,并通过传导节点生成来执行数据插补。AGG 在节点中直接使用可学习的嵌入表示测量值、时间戳和元数据,然后利用注意力来学习感兴趣的变量之间的表达关系,从而隐含地学习传感器测量值的因果图表示。该模型在北京空气质量、PhysioNet 2012 挑战和 UCI 本地化的基准数据集上,在时间序列数据插补、分类和预测方面取得了最先进的结果。
Sep, 2023