本研究关注图神经网络的本质问题:无法仅仅依靠局部信息计算多个重要的图形特征;同时提出了信息传递图神经网络的第一个数据相关泛化界限,这一分析专门考虑了 GNN 局部置换不变性,该边界比现有的基于 VC 维度的 GNN 保证要紧密,与循环神经网络的 Rademacher 界限相当。
Feb, 2020
提出了一种名为 Global-Local-GNN (GLGNN) 的方法,通过利用全局和局部信息以及节点标签和特征的学习,提高了节点分类 GNNs 的性能,并显示了全局信息利用对节点分类的重要性。
Jun, 2024
研究了 MPNN 在图分类和回归中的泛化误差,表明 MPNN 的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用 MPNN 可以逼近离散化的几何模型上的 MPNN。
Feb, 2022
本文将图上定义的神经网络呈现为信息传递神经网络(MPNN),通过研究不同类别的这些模型的区别能力,探讨它们的识别能力,研究传统的图神经网络和卷积图神经网络对顶点进行特征标注的能力的界限,并使用 Weisfeiler-Lehman 算法对 MPNNs 的区分能力进行了上下界的研究。
Apr, 2020
本文提出了一种称为 GNN-AK 的框架,旨在将任何 MPNN 提升为具有更高表达能力的模型,通过扩展 MPNN 中的局部聚合算法到更一般的子图模式,以提高实用性能,同时维持可扩展性;这种方法被证明比常见的 Weisfeiler-Lehman 同构测试更具表达能力,可以用于多个图机器学习任务中.
Oct, 2021
研究了图神经网络在泛化上的机制,建立了高概率边界和其对泛化差距和梯度的影响,得出结论和实验证据相符的新认识。
May, 2023
本文探讨了消息传递神经网络(MPNN)在转换其输入图中节点存储的数字特征方面的能力。我们引入了全局特征映射变换器(GFMT)的概念,并以 GFMT 的基本语言 MPLang 作为表现能力的标准。我们考虑了精确与近似表现力、任意激活函数的使用以及只允许使用 ReLU 激活函数的情况。
Mar, 2022
本文提出了一种新的基于几何学聚合的 aggregation 方案,包含三个模块:节点嵌入,结构化邻域和双层聚合,并将其实现到图卷积网络中,命名为 Geom-GCN。在多个开放数据集上的实验结果表明,Proposed Geom-GCN 已经达到了当前状态的最佳性能。
提出了一种新的 Hierarchical Message-passing Graph Neural Networks 框架,通过生成 hierarchical structure,并采用 inra- 和 inter-level propagation manners 以及 hierarchical community detection algorithm,实现了对长程信息的高效访问,从而在节点分类、社区检测等任务中优于现有基于 GNN 的模型。
Sep, 2020
本文研究如何全面利用信息,从理论和实践上提高信息传递神经网络的表现力和可推广性,并提出一种新的名为 INGNN 的图神经网络模型,针对节点分类任务,与目前最先进的方法相比,实验证明其优越性(平均排名 1.78)。
Oct, 2022