路径神经网络:表现力强且准确的图神经网络
图神经网络在各个领域取得了显著进展,但受到称为 1-Weisfeiler-Lehmann 测试的理论约束。尽管最新的高阶图神经网络可以克服这个限制,但它们通常集中于某些图的组成要素,如团或环。然而,我们的研究选择了一条不同的路线,侧重于路径,这在任何图中都是固有的。我们能够构建一个更一般的拓扑视角,并将它与其他拓扑领域的一些已有理论建立联系。有趣的是,在不对图的子结构作出任何假设的情况下,我们的方法在该领域超过早期的技术,达到了几个基准上的最先进性能.
Aug, 2023
本研究提出一种使用特殊算法和线性代数工具来分析图神经网络 (GNNs) 的表征能力的方法,证明 NNG 可以优于 Weisfeiler-Lehman 算法,同时在图同构和图分类等数据集上进行充分实验证明了这种新型的 GNN 架构更具表达力的特点。
May, 2022
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
这篇论文提出了 Nested Graph Neural Networks (NGNNs) 框架,通过将节点表示编码为子图而不是子树来表示整个图,从而比 1-WL 更强大地区分几乎所有 r 正则图,并且在基准数据集上表现出高度竞争性表现。
Oct, 2021
为了填补这一重要方向的空白,我们首次对不同形式定义下增强表达能力的模型进行了综述,具体而言,我们根据三个类别(即图特性增强、图拓扑增强和图神经网络架构增强)对这些模型进行了回顾。
Aug, 2023
提出了一种基于 1-WL 和邻居之间的边缘考虑的 NC-1-WL 算法,实现了图同构测试,提高了图神经网络的可表达性;进一步提出了 NC-GNN 框架作为 NC-1-WL 的可微分神经版本,能够在各种基准测试中实现出色的性能。
Jun, 2022
本文研究了四种流行的图神经网络模型,探究了在没有节点属性可用的情况下这些模型所学习的节点表示中纯粹编码的图的哪些属性,并表明其中两个将所有节点嵌入同一特征向量中,而另外两个生成与输入图上的行走数量有关的表示。值得注意的是,在图的某一层 $k>1$,结构不相似的节点如果具有相同长度的行走次数,则可以具有相似的表示。我们在真实数据集上经验证实了我们的理论发现。
Apr, 2023
通过在算法空间中训练 Graph Neural Networks 来解决基于图结构的问题,使用基于最大化的信息传递神经网络来实现离散决策,同时实现了任务迁移并提升学习效果。
Oct, 2019