几何图神经网络的泛化能力
本文针对图形分布中局部结构与图形大小相关的情况,探讨了图神经网络在不同大小的图上的泛化能力,发现了一些针对小图很好但对大图表现不佳的全局最小值,提出了两种改善图形大小泛化能力的方法,其中包括一个自我监督学习任务,该任务能够提供在大图中出现的局部结构的有意义表示,并在多个数据集上改善了分类准确度。
Oct, 2020
研究了MPNN在图分类和回归中的泛化误差,表明MPNN的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用MPNN可以逼近离散化的几何模型上的MPNN。
Feb, 2022
本研究测试应用几何深度学习到低维拓扑问题的效果,在一个简单的模型中,使用图神经网络来判断一对图是否给出同构三维多样体,通过监督学习和强化学习来训练和优化神经网络模型的准确率和效率。
May, 2023
本文通过对图神经网络和流形神经网络在图构建、卷积核和神经网络等方面的分析,得出了一种针对该关系的适当内核及其密集和中等稀疏图的非渐进误差界定理,并探讨了图过滤器的可区别性和近似期望行为之间的权衡关系,并分析了非线性操作的频率混合特性和相同流形采样的几何图的可转移性推论,并在导航控制问题和点云分类任务上验证了其结果。
May, 2023
图神经网络在各个领域取得了显著进展, 但受到称为1-Weisfeiler-Lehmann测试的理论约束. 尽管最新的高阶图神经网络可以克服这个限制, 但它们通常集中于某些图的组成要素,如团或环. 然而, 我们的研究选择了一条不同的路线, 侧重于路径, 这在任何图中都是固有的. 我们能够构建一个更一般的拓扑视角,并将它与其他拓扑领域的一些已有理论建立联系. 有趣的是, 在不对图的子结构作出任何假设的情况下, 我们的方法在该领域超过早期的技术,达到了几个基准上的最先进性能.
Aug, 2023
基于几何信息传递的数学预备知识,本论文从现有模型的角度提供了对几何图神经网络的统一视角,并总结了其应用以及相关数据集,以促进后续方法开发和实验评估的研究,同时还讨论了几何图神经网络的挑战和未来潜在方向。
Mar, 2024
通过分析图同态性的熵,我们提出了一种新的视角来研究图神经网络的泛化能力,并通过将图同态性与信息论度量联系起来,得出了适用于图和节点分类的泛化界限。通过我们提出的界限,能够捕捉到各种图结构的细微差别,包括但不限于路径、环和完全子图。通过图同态性,我们呈现了一个统一的框架,能够揭示广谱 GNN 模型的特性。通过在真实世界和人工合成数据集上观察到的泛化差距,我们验证了理论发现的实际可应用性。
Mar, 2024
通过流形理论,分析在由流形样本构造的图上操作的图神经网络的统计泛化差距,研究了图神经网络在节点级和图级任务上的泛化差距。在训练图中节点数量增加时,泛化差距减小,从而保证图神经网络对流形上的未见点的泛化性能。通过多个真实世界数据集验证了我们的理论结果。
Jun, 2024
本研究解决了图神经网络(GNN)在训练和测试数据不一致时泛化能力减弱的问题。通过对产生训练和测试数据的流形模型之间存在不匹配的情况进行分析,揭示了GNN在模型不匹配情况下的泛化鲁棒性。研究发现,随着训练图中节点数量的增加,泛化差距减少,但在流形维度增大和不匹配程度加深时,泛化能力受到影响,表明对GNN的滤波器设计提出了新的启示。
Aug, 2024