深度图神经网络的特征过度相关性:新的视角
本研究探讨了图神经网络中的过度平滑问题,并通过使用高斯过程在无限多隐藏特征的极限中对图卷积网络中的过度平滑进行了研究。我们通过一种新的非过度平滑阶段,验证了该理论,并通过在有限大小的图卷积网络上进行训练线性分类器来测试我们的方法的预测结果,结果与有限大小的图卷积网络相吻合。
Jun, 2024
我们的研究揭示了深度图神经网络中的超平滑和特征过相关性的新的理论洞见。我们展示了不变子空间的普遍性,证明了固定的相对行为不受特征变换的影响。在线性场景中,这导致节点表示被低维子空间主导,其渐近收敛速率与特征变换无关,这导致节点表示的秩崩溃,从而在平滑向量跨越该子空间时产生超平滑,在避免超平滑的情况下产生超相关。根据我们的理论,我们提出了作为有益属性的 Kronecker 乘积之和,可以明确防止超平滑、超相关和秩崩溃。我们从实证角度将我们的洞见扩展到非线性情况,证明了现有模型无法捕捉线性独立特征。
Aug, 2023
本文提出了一种使用节点嵌入关系明确缓解图神经网络(GNNs)中超平滑问题的新方法。通过在真实数据集上进行试验,表明利用节点嵌入关系使得 GNN 模型如 Graph Attention Network 对超平滑的鲁棒性更强,并且在更深的 GNNs 下取得更好的性能。我们的方法可以与其他方法结合使用,以获得最佳性能。
Jan, 2023
本研究分析图神经网络在层数增加时出现的过度平滑现象,通过使用增广归一化拉普拉斯矩阵的频谱确定权重矩阵的条件,来说明当嵌入的狄利克雷能量收敛于零时,图嵌入的区分能力会丧失。通过使用狄利克雷能量来衡量嵌入的表达能力,可以得到比已有研究更简单的证明,并可处理更多的非线性问题。
Jun, 2020
通过引入两个过度平滑度衡量指标以及可微分的分组正规化技术(DGN),增加同一组内节点的平滑度,同时在不同组之间分离节点分布以显着减轻过度平滑的问题,使得 GNN 模型更加鲁棒,并实现更好的性能与更深层次的 GNN。
Jun, 2020
本研究旨在从拓扑学的角度理解深度图神经网络中关于过度平滑和过度挤压的交错关系,发现这两个问题的本质相似性,并提出了一种基于 Ollivier 的 Ricci 曲率边界的随机 Jost 和 Liu 曲率重连算法 (SJLR),该方法比以前的基于曲率的重连方法更简单且更经济实惠,旨在帮助减轻过度平滑或过度挤压的影响并更好地理解这两个问题。
Dec, 2022
本论文提出了一种新的观点,即深度图卷积网络在训练过程中可以学习抗去平滑化的能力,并设计了一种简单却有效的技巧来改善 GCN 训练,同时在三个引用网络上验证了结论并提供了 GCN 邻域聚合方面的见解。
Mar, 2020
本篇论文通过严密的数学分析,将注意力机制的图神经网络视为非线性时变动力系统,并将不均匀矩阵的乘积和联合谱半径的理论工具和技术纳入分析,证明了注意力机制无法避免过度平滑,并且会以指数方式失去表达能力
May, 2023