本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
本文提出了一种结构自由图压缩范式(SFGC),该方法将大规模图形压缩为小规模无图结构的节点集,并介绍了一种训练轨迹元匹配方案和图神经特征评分指标检验了该方法的优越性。
Jun, 2023
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达 10 倍的加速。
Mar, 2024
图神经网络 (GNNs) 在处理大规模图时遇到了显著的计算挑战,这严重限制了它们在各种应用中的效力。为了解决这个限制,图压缩成为一种有前景的技术,它构建一个小的合成图以有效地训练 GNNs 并保持性能。然而,由于节点之间的拓扑结构,图压缩仅限于压缩观测训练节点及其相应的结构,因此缺乏处理未见数据的能力。因此,在推理阶段仍需要原始大图进行信息传递,导致了大量的计算需求。为了解决这个问题,我们提出了映射感知的图压缩 (MCond),明确学习原始节点到合成节点的一对多映射,以无缝地将新节点整合到合成图中进行归纳表示学习。这使得直接在合成图上进行信息传播比在原始大图上更高效。具体而言,MCond 采用了交替优化方案,具有来自传统的和归纳的角度的创新损失项,促进了图压缩和节点映射学习之间的相互促进。大量实验证明了我们方法在归纳推理中的有效性。在 Reddit 数据集上,与基于原始图的对照方法相比,MCond 在推理速度上实现了高达 121.5 倍的加速和 55.9 倍的存储需求降低。
Jul, 2023
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
本论文提出了用于各种大小的大规模图的可扩展图压缩方法 DisCo,其中有两个互补的组件,即节点压缩模块和边压缩模块,实现了节点和边的分离压缩。通过在预训练节点分类模型中合并类别质心对齐和锚点附加正则化器,节点压缩模块可以生成类似于原始节点的特征分布的合成节点,并将原始图的连边预测模型转移到压缩的节点中,生成相应的压缩边。实验证明,DisCo 方法在五个常见数据集上的结果明显优于目前最先进的方法。
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
Jun, 2024
图结构的分析在大规模图数据上带来了显著的挑战,而图压缩是为了解决这些挑战而出现的解决方案之一,本文通过对图压缩的形式定义和分类研究方法,以及对数据集和评估指标的全面分析,提供了对这一领域的研究方向与挑战的认识,并给出了指导未来研究的简明指南。
Feb, 2024