利用关系嵌入减少图神经网络中的过度平滑
本研究分析图神经网络在层数增加时出现的过度平滑现象,通过使用增广归一化拉普拉斯矩阵的频谱确定权重矩阵的条件,来说明当嵌入的狄利克雷能量收敛于零时,图嵌入的区分能力会丧失。通过使用狄利克雷能量来衡量嵌入的表达能力,可以得到比已有研究更简单的证明,并可处理更多的非线性问题。
Jun, 2020
通过引入两个过度平滑度衡量指标以及可微分的分组正规化技术(DGN),增加同一组内节点的平滑度,同时在不同组之间分离节点分布以显着减轻过度平滑的问题,使得 GNN 模型更加鲁棒,并实现更好的性能与更深层次的 GNN。
Jun, 2020
本篇论文通过严密的数学分析,将注意力机制的图神经网络视为非线性时变动力系统,并将不均匀矩阵的乘积和联合谱半径的理论工具和技术纳入分析,证明了注意力机制无法避免过度平滑,并且会以指数方式失去表达能力
May, 2023
本文提出了一种灵感来自 Bregman 距离概念的 GNNs 的新型双层优化框架,通过引入类似于 “跳跃连接” 的机制,有效地缓解了过度平滑问题,并证明了该方法在同质性和异质性图中优于原始 GNNs。实验证明,即使层数较高,Bregman GNNs 也能产生更稳健的学习精度,表明了该方法在缓解过度平滑问题方面的有效性。
Sep, 2023
本研究探索了通过图神经网络的嵌入空间来减轻过度压缩现象,特别关注于将双曲型图神经网络推广到可变曲率的黎曼流形,以使嵌入空间的几何与图的拓扑相符,通过提供敏感性的界限结果,实现在具有负曲率的图中减轻过度压缩的有希望的理论和实证结果。
Nov, 2023
本研究提出了一种 Alternating Graph-regularized Neural Network (AGNN) 模型,其中包括 Graph Convolutional Layer (GCL) 和 Graph Embedding Layer (GEL)。GEL 通过包含拉普拉斯嵌入项的图正则化优化导出,可以通过从低阶特征空间定期投影到高阶空间来缓解过度平滑问题。通过改进的 Adaboost 策略聚合来自每一层的输出,并探索多跳邻居的集成嵌入,评估表明,在比较某些多层或多阶图神经网络的性能基础上,AGNN 比现有的最先进模型表现更好。
Apr, 2023
本文研究了图神经网络的过度平滑问题,并提出了两个定量度量指标 MAD 和 MADGap。通过量化实验和分析,我们发现过度平滑是 GNNs 的基本性质,且由于节点接收到的噪声信息比例较高,是导致过度平滑的主要因素。最后我们提出了两种针对拓扑结构的方法:MADReg 和 AdaGraph,证明了这两种方法在 7 个广泛使用的图形数据集上都有效降低了过度平滑问题,并改善了各种 GNN 模型的性能。
Sep, 2019
本研究探讨了图神经网络中的过度平滑问题,并通过使用高斯过程在无限多隐藏特征的极限中对图卷积网络中的过度平滑进行了研究。我们通过一种新的非过度平滑阶段,验证了该理论,并通过在有限大小的图卷积网络上进行训练线性分类器来测试我们的方法的预测结果,结果与有限大小的图卷积网络相吻合。
Jun, 2024
本研究旨在从拓扑学的角度理解深度图神经网络中关于过度平滑和过度挤压的交错关系,发现这两个问题的本质相似性,并提出了一种基于 Ollivier 的 Ricci 曲率边界的随机 Jost 和 Liu 曲率重连算法 (SJLR),该方法比以前的基于曲率的重连方法更简单且更经济实惠,旨在帮助减轻过度平滑或过度挤压的影响并更好地理解这两个问题。
Dec, 2022
该论文提出了一个新视角来观察深度图神经网络表现下降的问题,即特征过度相关性。作者通过理论和实证探究了这一问题的存在及可能的原因,并提出一个名为 DeCorr 的通用框架来消除特征冗余信息,从而减少特征相关性问题,实验证明提出的方法可以帮助深度图神经网络在解决过度平滑问题中起到补充作用。
Jun, 2022