图神经网络中过度平滑问题的注记
本文研究了图神经网络的过度平滑问题,并提出了两个定量度量指标MAD和MADGap。通过量化实验和分析,我们发现过度平滑是GNNs的基本性质,且由于节点接收到的噪声信息比例较高,是导致过度平滑的主要因素。最后我们提出了两种针对拓扑结构的方法:MADReg和AdaGraph,证明了这两种方法在7个广泛使用的图形数据集上都有效降低了过度平滑问题,并改善了各种GNN模型的性能。
Sep, 2019
本研究旨在从拓扑学的角度理解深度图神经网络中关于过度平滑和过度挤压的交错关系,发现这两个问题的本质相似性,并提出了一种基于Ollivier的Ricci曲率边界的随机Jost和Liu曲率重连算法(SJLR),该方法比以前的基于曲率的重连方法更简单且更经济实惠,旨在帮助减轻过度平滑或过度挤压的影响并更好地理解这两个问题。
Dec, 2022
本文提出了一种使用节点嵌入关系明确缓解图神经网络(GNNs)中超平滑问题的新方法。通过在真实数据集上进行试验,表明利用节点嵌入关系使得GNN模型如Graph Attention Network对超平滑的鲁棒性更强,并且在更深的GNNs下取得更好的性能。我们的方法可以与其他方法结合使用,以获得最佳性能。
Jan, 2023
本研究提出了一种Alternating Graph-regularized Neural Network (AGNN)模型,其中包括Graph Convolutional Layer (GCL)和Graph Embedding Layer (GEL)。GEL通过包含拉普拉斯嵌入项的图正则化优化导出,可以通过从低阶特征空间定期投影到高阶空间来缓解过度平滑问题。通过改进的Adaboost策略聚合来自每一层的输出,并探索多跳邻居的集成嵌入,评估表明,在比较某些多层或多阶图神经网络的性能基础上,AGNN比现有的最先进模型表现更好。
Apr, 2023
该文研究了图神经网络中过度平滑问题,并针对无向图将其概念推广至有向图,通过引入指向对称规范化拉普拉斯算子并提出分数图拉普拉斯神经ODE框架,实现了在节点间传播信息的同时缓解了过度平滑问题,证明了该方法的有效性并在合成和真实世界的有向无向图上进行了广泛实验。
May, 2023
借鉴于经典和量子物理中常用的反时间原理,本研究颠倒了图热方程的时间方向,产生了一类高通滤波函数,提高了图节点特征的清晰度。基于此概念,引入了基于多尺度热核的图神经网络(MHKG),通过综合不同的滤波函数对节点特征的影响,进一步将MHKG广义化为一种称为G-MHKG的模型,并全面展示了控制过度平滑、过度压缩和表现能力的各个元素的作用。本研究发现通过滤波函数的特性可以表征和分析上述问题,并揭示了过度平滑和过度压缩之间的权衡关系:提高节点特征的清晰度会使模型更容易过度压缩,反之亦然。此外,通过再次操作时间,展示了G-MHKG在较小条件下如何解决这两个问题。我们的实验结果证明了所提出模型的有效性,其在既具有同质性又具有异质性的图数据集上胜过了几个基线模型。
Sep, 2023
通过引入framelet系统到Dirichlet能量分析并采用多尺度视角来缓解过度平滑问题,我们设计了Energy Enhanced Convolution(EEConv),它是一种有效且实用的操作,被证明严格增强Dirichlet能量,并通过对异种图中的节点分类任务受益于多跳聚合特性。实验结果表明,具有EEConv的深度GNN在各种节点分类数据集上实现了最先进的性能,特别是对于异种图,同时增加了网络的Dirichlet能量。
Nov, 2023
本研究基于$K$-functional得出的近似结果,探索了定义在图上的函数的近似理论,并建立了使用图卷积网络(GCNs)评估目标函数近似的下界的理论框架,并研究了GCNs中通常观察到的过度平滑现象。
Jul, 2024
本研究旨在解决深度图神经网络(GNN)在层数超过8-10时性能急剧下降的问题,强调常见的过平滑现象并非主要原因。通过理论分析和实验,本论文揭示了深度多层感知器的可训练性问题是主要挑战,并提出适当限制梯度流的上界可以显著提升GNN的可训练性。实验结果验证了我们的理论发现与实证证据的一致性,推动了深度图模型的构建新思路。
Aug, 2024