图神经网络中的过度压缩现象:一项综合调查
本文针对图结构数据上的机器学习所使用的最先进的模型 —— 图神经网络 (GNNs) 中的信息传递神经网络 (MPNNs) 类进行研究,分析了不同维度的节点特征在 MPNNs 中的表达能力,并通过新颖的量化特征来解释过压缩效应对 MPNNs 表达能力的影响。结果表明,对于大多数实际情况,MPNNs 的表现能力受到严重的限制。
Jun, 2023
本研究旨在从拓扑学的角度理解深度图神经网络中关于过度平滑和过度挤压的交错关系,发现这两个问题的本质相似性,并提出了一种基于 Ollivier 的 Ricci 曲率边界的随机 Jost 和 Liu 曲率重连算法 (SJLR),该方法比以前的基于曲率的重连方法更简单且更经济实惠,旨在帮助减轻过度平滑或过度挤压的影响并更好地理解这两个问题。
Dec, 2022
提出一种用于分析过度压缩的基于信息收缩的框架,此分析是基于 von Neumann 的可靠计算模型的,该计算模型认为在噪声计算图中过度压缩会导致信号闷灭。同时,本研究提出了一种基于重连的算法来缓解过度压缩问题。
Aug, 2022
本研究探索了通过图神经网络的嵌入空间来减轻过度压缩现象,特别关注于将双曲型图神经网络推广到可变曲率的黎曼流形,以使嵌入空间的几何与图的拓扑相符,通过提供敏感性的界限结果,实现在具有负曲率的图中减轻过度压缩的有希望的理论和实证结果。
Nov, 2023
本文研究图神经网络中信息传递中的 over-squashing 问题,通过引入基于曲率的重连方法以减轻该问题,同时探究其根源为图中负曲率边所导致的瓶颈现象。
Nov, 2021
通过理论分析,证明神经网络节点宽度可以缓解过度压缩问题,而神经网络深度则无法解决此问题。节点距离越远的高通勤时间节点之间出现过度压缩现象,而图形改写属于解决此问题的一类方法。
Feb, 2023
该研究指出图神经网络(GNN)在信息传播方面存在瓶颈问题,即信息在传输过程中容易被强行压缩而丢失长距离交互信息,而吸收入边的 GNNs 如 GCN 和 GIN 更容易发生这种情况,进一步反映当前模型优化中存在的问题。
Jun, 2020
借鉴于经典和量子物理中常用的反时间原理,本研究颠倒了图热方程的时间方向,产生了一类高通滤波函数,提高了图节点特征的清晰度。基于此概念,引入了基于多尺度热核的图神经网络 (MHKG),通过综合不同的滤波函数对节点特征的影响,进一步将 MHKG 广义化为一种称为 G-MHKG 的模型,并全面展示了控制过度平滑、过度压缩和表现能力的各个元素的作用。本研究发现通过滤波函数的特性可以表征和分析上述问题,并揭示了过度平滑和过度压缩之间的权衡关系:提高节点特征的清晰度会使模型更容易过度压缩,反之亦然。此外,通过再次操作时间,展示了 G-MHKG 在较小条件下如何解决这两个问题。我们的实验结果证明了所提出模型的有效性,其在既具有同质性又具有异质性的图数据集上胜过了几个基线模型。
Sep, 2023
图神经网络是基于图的机器学习的流行模型,本文提出了一种新的图重连框架,通过一系列的重连操作满足降低过度挤压、保持图的局部性和稀疏性等特点,并验证其在多个真实世界基准测试中的有效性。
Oct, 2023
论文总结了当前文献中过度压缩问题的不同表述,并提出了三种解决这一问题的方法,讨论了过度压缩与可表达能力之间的对齐以及过度压缩与过度平滑之间的权衡,总结了现有工作中用于验证过度压缩缓解方法有效性的实证方法,并列出了一些有待进一步探索过度压缩问题的开放问题和潜在方向。
Nov, 2023