循环不变位置编码用于图表示学习
Eigenformer 通过一种新颖的对 Laplacian 谱意识的注意机制,在一些标准的图神经网络基准数据集上实现了与最先进的 MP-GNN 体系结构和 Graph Transformers 相当的性能,甚至在某些数据集上超越了最先进的方法。此外,我们发现我们的架构在训练速度方面要快得多,可能是由于内在的图归纳偏置。
Jan, 2024
本研究基于代数拓扑学和其现代发展,持久同调理论,在图表示学习中提出了一种新的基于循环基的归纳关系预测解决方案。通过探索循环空间的线性结构,我们可以提高规则搜索的效率。在收集这些循环的基础上,我们构建了一个新颖的 GNN 框架,学习了循环的表示,并预测了关系的存在性。该方法在基准测试中取得了最先进的性能。
Oct, 2021
本文通过泛化定义拉普拉斯嵌入的优化问题,提出了一族新的图形式的位置编码,并讨论了一种计算这些位置编码的方法,证实了这种新的位置编码可以提高 MPNN 的表述能力,同时给出了初步的实验结果。
Oct, 2022
本文提出了一种新的 GNN 网络架构 LSPE,通过引入可学习的位置编码对节点的结构表达和位置表达进行解耦,应用在分子数据集上的实验结果表明 LSPE 能显著提高模型性能。
Oct, 2021
设计有效的位置编码对于构建强大的图形变压器和增强消息传递图神经网络至关重要。我们提出了稳定且表达能力强的位置编码(SPE),它是第一个经过验证的稳定架构,同时尊重特征向量的所有对称性,并且至少与现有方法一样具有表达能力,对于基础不变函数非常强大,同时在分子属性预测和超出分布泛化任务上表现出改进的泛化性能。
Oct, 2023
本文讨论了使用位置编码技术来改进图神经网络在节点集合任务中预测的问题,并提出了一种被称为 PEG 的类 GNN 层,它使用单独的通道更新原始节点特征和位置特征。PEG 同时对原始节点特征施加排列等变性质,并对位置特征施加 O(p)等变性质,其中 p 是使用的位置特征的维度。在 8 个真实世界网络上的广泛链接预测实验表明,PEG 在泛化和可伸缩性方面具有优势。
Mar, 2022
利用 PerturbPE 方法,从 eigenbasis 中提取一致且规则的组件来增强模型的鲁棒性和普适性,实验结果在 Human3.6M 数据集上表现出高达 12% 的性能提升,并在缺失两条边的情况下显著改善了性能,创造了新的最先进水平。
May, 2024
提出了一种改进了隐式神经表示(INR)的重构质量的新型位置编码方法,该嵌入方法在紧凑数据表示方面具有更大数量的频率基础,并在压缩任务中不引入任何额外复杂度的情况下,在速率失真性能和新视角合成的重构质量方面取得了显著的增益。
Nov, 2023
提出了一种新的位置信息编码方法,使用神经常微分方法对非循环模型(如 Transformer)进行编码,并证明在翻译和理解任务中,该编码方法与已有编码方法相比具有更好的性能。
Mar, 2020
通过最短距离和线性循环网络,我们提出了一种新的图神经网络架构,以解决信息提取和计算复杂度的挑战,并在各个基准测试中展示了与最新颖的图转换器相比性能具有竞争力且计算复杂度大大降低。
Dec, 2023