具有正则化注意力分数的更强图转换器
该研究通过理论探索首次分析了浅层图变换器在半监督节点分类中的应用。它使用了自注意力和位置编码,并描述了实现理想的泛化误差所需的样本复杂度和迭代次数的定量特征。此外,文中还展示了自注意力和位置编码如何通过稀疏化注意力图和在训练过程中促进核心邻域,从而增强了图变换器的特征表示能力。实验证明了我们的理论结果。
Jun, 2024
本篇论文提出了一种名为 GraphTrans 的算法,它将 Transformer 自注意力模块和标准的 GNN 模块相结合,并应用置换不变性的 Transformer 模块,从而解决了当前方法在表示长程依赖关系方面的不足。该算法在多个图分类任务上表现出色,说明纯粹的基于学习的方法可能适用于在图上学习高水平、长程的关系。
Jan, 2022
本文提出了一种用于任意图的变形器神经网络结构,在注意力机制中使用了邻域连接性,用拉普拉斯特征向量代替位置编码,使用批量归一化层代替层归一化,支持边特征表示。实验表明,该结构的性能优于传统的 transformer 模型。
Dec, 2020
本研究提出了一种关于如何构建通用、强大、可扩展的图形 Transformer 的方案,其中包括位置 / 结构编码、本地消息传递机制、全局注意机制等主要条件,可适用于小规模和大规模图形,并在 16 项基准测试中取得高竞争力的结果。
May, 2022
本文旨在提出一个简化的图结构 Transformers 算法架构 (SGFormer),该架构基于一个简单的 attention 模型,可在处理大规模图结构时实现高效信息传播,同时在节点属性预测基准测试中取得了出色的表现。
Jun, 2023
Eigenformer 通过一种新颖的对 Laplacian 谱意识的注意机制,在一些标准的图神经网络基准数据集上实现了与最先进的 MP-GNN 体系结构和 Graph Transformers 相当的性能,甚至在某些数据集上超越了最先进的方法。此外,我们发现我们的架构在训练速度方面要快得多,可能是由于内在的图归纳偏置。
Jan, 2024
本文提出了一种名为 GraphiT 的模型,将结构和位置信息融入到变换器体系结构中,以解决图像分类和回归等任务,并通过相对位置编码策略中的正定核和枚举和编码短路径等方法来实现,表现比传统方法更好。此外,该模型还具有解释和可视化图像的特点,有望成为解释性较强、科学应用领域中的潜在强大候选者。
Jun, 2021
通过全球节点和超边之间的全球关联以及捕捉节点和超边之间的局部连接性,提出了一种新颖的超图学习框架,称为 HyperGraph Transformer(HyperGT),该框架利用基于 Transformer 的神经网络结构来有效地处理超图结构化数据,实现了全面的超图表示学习,并在超图节点分类任务中取得了出色的性能,超过了现有方法,建立了新的基准水平。
Dec, 2023
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了 LargeGT 框架,并取得了 3 倍的加速和 16.8%的性能提升。
Dec, 2023
本文介绍了 Graformer,一种新颖的基于 Transformer 的编码器 - 解码器体系结构,用于图形到文本的生成。使用我们新颖的图形自我关注,节点的编码依赖于输入图中的所有节点,促进了全局模式的检测。通过学习不同关注头的节点之间的权重,Graformer 实现了不同的连接视图,从而在 AGENDA 和 WebNLG 这两个流行的图形到文本生成基准测试中实现强大的性能。
Jun, 2020