该论文概述了图神经网络的 “表达能力” 概念,并就图神经网络的设计选择提供了有价值的见解。
Jan, 2024
为了填补这一重要方向的空白,我们首次对不同形式定义下增强表达能力的模型进行了综述,具体而言,我们根据三个类别(即图特性增强、图拓扑增强和图神经网络架构增强)对这些模型进行了回顾。
Aug, 2023
研究了图神经网络在泛化上的机制,建立了高概率边界和其对泛化差距和梯度的影响,得出结论和实验证据相符的新认识。
May, 2023
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
本综述通过介绍图神经网络及其理论局限性,全面概述了图神经网络模型的表现能力及其改进版。
Mar, 2020
机器学习与图神经网络,尤其是使用图神经网络(GNN)的机器学习,在各个领域的图数据广泛应用中受到了广泛关注。然而,对于 GNN 的性质仍存在理论上的不完备性。最近的理论进展主要集中于阐明 GNN 的粗粒度表达能力,主要使用组合技巧。然而,这些研究与实践并不完全一致,特别是在理解使用随机一阶优化技术训练时 GNN 的泛化行为方面。在本文中,我们将论证图机器学习社区需要将关注点转向发展一个更加平衡的图机器学习理论,重点研究表达能力、泛化和优化的相互作用。
Feb, 2024
本文提出了一个理论框架,可以比较图神经网络架构的表达能力,证明了实用 GNN 的第一近似保证,FGNN 被证明是最具表现力的架构之一,在 Quadratic Assignment Problem 中的应用表明 FGNN 能够比现有的基于谱、SDP 或其他 GNN 架构的算法表现得更好。
Jun, 2020
本文提出了 UniGNN 框架,使得现有的图神经网络能够直接应用于超图,并证明了该框架比传统算法更有效地处理超图数据。
May, 2021
图形学习的理论基础、突破和挑战以及可能的解决方案的综合概述。
Jul, 2024
本研究提出了一种超图神经网络 (HGNN) 框架,可以通过超图结构编码高阶数据相关性,并使用超边卷积操作处理数据相关性,以有效地进行数据表示学习。实验结果表明,HGNN 方法优于最新的最先进的方法,并且可以处理现实世界中的复杂数据和多模数据。
Sep, 2018