边缘变压器的系统化概括
基于 k 维 Weisfeiler-Leman(k-WL)层次结构的图学习架构在理论上具有良好的表达能力。然而,这样的架构通常在实际任务中无法提供可靠的预测性能,限制了它们的实际影响。相比之下,基于全局注意力的图变换器等架构在实践中表现出强大的性能,但是与 k-WL 层次结构的表达能力进行比较仍具有挑战性,特别是因为这些架构依赖于位置或结构编码来实现其表达能力和预测性能。为了解决这个问题,我们展示了最近提出的边界变换器(Edge Transformer),一种基于节点对而不是节点操作的全局注意力模型,具有至少 3-WL 的表达能力。在实证上,我们证明了边界变换器相对于其他理论上对齐的架构在预测性能方面的优势,同时不依赖于位置或结构编码。
Jan, 2024
本文提出了一种用于任意图的变形器神经网络结构,在注意力机制中使用了邻域连接性,用拉普拉斯特征向量代替位置编码,使用批量归一化层代替层归一化,支持边特征表示。实验表明,该结构的性能优于传统的 transformer 模型。
Dec, 2020
通过探索 Transformer 模型的设计空间,我们发现一些设计上的决策对该模型的归纳偏差有很大的影响。我们发现这些决策可以显著地提高 Transformer 模型的组合泛化能力,并在各种复合任务中实现了比文献报道的更好的泛化结果,并在语义分析组合泛化基准(COGS)和字符串编辑操作组合基准(PCFG)中实现了最先进的结果。
Aug, 2021
Edgeformers 是建立在图增强 Transformer 之上的框架,通过对边缘文本进行建模来执行边缘和节点表示学习。在五个公共数据集中,Edgeformers 在边缘分类和链接预测方面始终优于最先进的基线,显示了学习边和节点表示的效力。
Feb, 2023
我们认为 Transformer 模型本质上是图到图的模型,序列只是一种特殊情况。注意力权重在功能上等价于图中的边。我们的图到图 Transformer 架构明确地表达了这个能力,通过将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的 Transformer 模型中学习出的潜在图中。添加迭代的图优化过程提供了输入、输出和潜在图的联合嵌入,使得非自回归图预测能够优化完整图,无需任何专门的流水线或解码策略。实证结果表明,该架构在对各种语言结构建模方面取得了最先进的准确性,与预训练学习的潜在语言表示非常有效地集成在一起。
Oct, 2023
该文探讨了怎样使用 Transformer 网络在算法任务中表现良好,展示了多层 transformer 网络在任务分解中的可靠性解决方案,以及所有相关任务中的共享计算的利用。
Oct, 2022
该论文提出了一种名为 Edge-augmented Graph Transformer (EGT) 的框架来处理任意形式的结构数据,其中使用全局自我关注作为聚合机制,并通过边缘通道来演化结构信息,从而在图结构数据的学习任务中超越了卷积 / 消息传递图神经网络,并在 OGB-LSC PCQM4Mv2 数据集上实现了量子化学回归任务的最新性能。
Aug, 2021
本文旨在提出一个简化的图结构 Transformers 算法架构 (SGFormer),该架构基于一个简单的 attention 模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
使用 Transformer 的语言理解和图神经网络(GNN)的鲁棒性,我们提出了一种新的方法,将 Transformer 与基于神经算法推理器(NARs)的图算法进行结合,以解决算法推理方面的问题。经过评估,在算法推理方面,我们的结果表明 TransNAR 模型在 CLRS-Text 上相较于仅使用 Transformer 模型,能够获得显著的提升。
Jun, 2024