图神经网络的稳定性属性
本文利用图信号处理来表征图神经网络(GNNs)的表征空间,讨论了图卷积滤波器在 GNNs 中的作用,并展示了这类滤波器所建立的任何架构都具有置换等变性和对网络拓扑的稳定性的基本属性。然后,我们讨论了扩展了边变量和自回归移动平均图滤波器的 GNNs 以及它们的属性,并最终研究了在推荐系统和学习机器人群体的分散式控制器中使用 GNNs 的相关研究。
Mar, 2020
验证了在图神经网络中引入拓扑扰动的稳定性,针对不同结构的 EdgeNet 框架证明其稳定性,以及参数空间的自由度与代表能力之间的关系和边缘网络参数矩阵与图移动算子的特征向量错配程度对稳定性的影响。
Dec, 2023
这篇研究提出一种鲁棒的图神经网络实现方法,明确考虑了观察拓扑中的扰动,通过优化可学习参数和真实图形来解决非可微且受限制的优化问题,适用于各种类型的图形,并可整合关于扰动的先验信息。通过多个数值实验评估了该方法的性能。
Dec, 2023
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
该研究探索了卷积神经网络在图信号处理方面的应用,通过构建选择图神经网络和聚合图神经网络,对信号的卷积和池化进行了重新解释,实现了在图数据上的卷积神经网络。此外,该研究还对选择和聚合图神经网络在一个基于源定位和作者归属的应用中进行了性能分析和评估。
May, 2018
本文研究图神经网络 (GNN) 的稳定性,提出一种可解释的上界,表明 GNN 对于高度连通节点之间的重连是稳定的,这为我们进一步了解 GNN 的性质提供了帮助。
Oct, 2020
本研究旨在通过研究梯度下降训练中神经网络中的特征学习理论中图卷积的作用,提供了两层图卷积网络与两层卷积神经网络之间的信号学习和噪声记忆的不同表征,发现图卷积显着增强了对手 CNN 的良性过拟合的范围,并且在梯度下降训练后, GNNs 和 MLPs 在特征学习和泛化能力方面存在重大差异,这一结论在我们的实证模拟中得到了进一步证实。
Jun, 2023
图神经网络(GNN)是用于各种图学习任务的主要架构。我们通过研究 GNN 概率分类器在从某个随机图模型中抽取的较大图上应用时的预测如何演变来呈现 GNN 表达能力的新视角。我们展示了输出收敛为常函数的现象,这个常函数上界了这些分类器能够统一表达的内容。这种收敛现象适用于包括最先进模型在内的广泛类别的 GNN,其中包括均值聚合和图转换器中的基于注意力的机制。我们的结果适用于包括(稀疏的)Erdős-Rényi 模型和随机块模型在内的广泛类别的随机图模型。我们通过实证验证了这些发现,并观察到即使在相对较小的图上,收敛现象已经显现出来。
Mar, 2024
本研究提出一种使用特殊算法和线性代数工具来分析图神经网络 (GNNs) 的表征能力的方法,证明 NNG 可以优于 Weisfeiler-Lehman 算法,同时在图同构和图分类等数据集上进行充分实验证明了这种新型的 GNN 架构更具表达力的特点。
May, 2022
本文研究了图卷积神经网络在半监督学习环境下的算法稳定性及其一阶推论;通过分析单层 GCNN 模型的稳定性,导出其一般化保证,提出稳定性关于其卷积核最大绝对特征值的依赖规律,并说明产生保证所需的卷积核最大特征值与图大小无关,为设计保证的算法稳定性的新型及更好的卷积核提供新思路。最后在多个真实世界的图数据集上评估了实验结果,实验结果支持理论结果。
May, 2019