本文研究了图卷积神经网络在半监督学习环境下的算法稳定性及其一阶推论;通过分析单层 GCNN 模型的稳定性,导出其一般化保证,提出稳定性关于其卷积核最大绝对特征值的依赖规律,并说明产生保证所需的卷积核最大特征值与图大小无关,为设计保证的算法稳定性的新型及更好的卷积核提供新思路。最后在多个真实世界的图数据集上评估了实验结果,实验结果支持理论结果。
May, 2019
基于图的节点分类中,机器学习和图卷积在性能上具有重要作用,但过多的图卷积会导致性能下降,本文通过理论分析和实证研究,提供了一种基于去除主特征向量的改进图卷积方法,且对于部分和完全分类都取得了显著的性能提升。
May, 2024
本研究通过对随机图模型的分析,研究了图卷积网络(GCN)的性质,包括 GCN 达到其连续对应的收敛性以及 GCN 对随机图小变形的稳定性,这有助于解释卷积表示在欧几里得域中成功的原因。
Jun, 2020
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析 GCNs 的泛化能力,本文提出了一种解耦结构,使得 GCNs 既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
本文从优化的角度解释了当前的图卷积操作存在的过度平滑问题,并引入了两个衡量节点级任务上过度平滑的度量标准,提出了一种新的卷积核 GCN+,并在真实的数据集上证明了其在节点分类任务上的优秀性能表现。
Sep, 2020
本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
本文基于 PAC-Bayesian 方法推导出了两种主要的图神经网络(GCNs 和 MPGNNs)的泛化界,进一步显示节点最大度数和权重的谱范数支配了这两种模型的泛化界。
Dec, 2020
图神经网络性能分析基于随机图理论,GCN 和 GAT 是关键研究领域,性能受到数据特征的影响,实验结果显示特定高阶结构对性能有负面影响。
Oct, 2023
该研究提供了一个理论框架,用于评估图神经网络在过度参数化阶段中进行图分类任务的泛化误差,其中参数数量超过数据点数量。我们探索了两种广泛使用的图神经网络类型:图卷积神经网络和消息传递图神经网络。在该研究之前,过度参数化阶段对泛化误差的现有界限不具信息性,限制了我们对过度参数化网络性能的理解。我们的新方法涉及在平均场阶段内导出上界,用于评估这些图神经网络的泛化误差。我们建立了收敛速度为 $O (1/n)$ 的上界,其中 $n$ 为图样本数量。这些上界在具有挑战性的过度参数化阶段为网络在未知数据上的性能提供了理论保证,并且总体上有助于我们对它们性能的理解。
Feb, 2024
本研究探讨了图神经网络中的过度平滑问题,并通过使用高斯过程在无限多隐藏特征的极限中对图卷积网络中的过度平滑进行了研究。我们通过一种新的非过度平滑阶段,验证了该理论,并通过在有限大小的图卷积网络上进行训练线性分类器来测试我们的方法的预测结果,结果与有限大小的图卷积网络相吻合。
Jun, 2024