RobGC:走向强大的图压缩
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种GNN体系结构,测试结果在Reddit上可达到95.3%,在Flickr上可达到99.8%,在Citeseer上可达到99.0%,同时将其图的尺寸缩小了99.9%以上。
Oct, 2021
本文提出了一种结构自由图压缩范式(SFGC),该方法将大规模图形压缩为小规模无图结构的节点集,并介绍了一种训练轨迹元匹配方案和图神经特征评分指标检验了该方法的优越性。
Jun, 2023
图神经网络(GNNs)在处理大规模图时遇到了显著的计算挑战,这严重限制了它们在各种应用中的效力。为了解决这个限制,图压缩成为一种有前景的技术,它构建一个小的合成图以有效地训练GNNs并保持性能。然而,由于节点之间的拓扑结构,图压缩仅限于压缩观测训练节点及其相应的结构,因此缺乏处理未见数据的能力。因此,在推理阶段仍需要原始大图进行信息传递,导致了大量的计算需求。为了解决这个问题,我们提出了映射感知的图压缩(MCond),明确学习原始节点到合成节点的一对多映射,以无缝地将新节点整合到合成图中进行归纳表示学习。这使得直接在合成图上进行信息传播比在原始大图上更高效。具体而言,MCond采用了交替优化方案,具有来自传统的和归纳的角度的创新损失项,促进了图压缩和节点映射学习之间的相互促进。大量实验证明了我们方法在归纳推理中的有效性。在Reddit数据集上,与基于原始图的对照方法相比,MCond在推理速度上实现了高达121.5倍的加速和55.9倍的存储需求降低。
Jul, 2023
这篇研究提出一种鲁棒的图神经网络实现方法,明确考虑了观察拓扑中的扰动,通过优化可学习参数和真实图形来解决非可微且受限制的优化问题,适用于各种类型的图形,并可整合关于扰动的先验信息。通过多个数值实验评估了该方法的性能。
Dec, 2023
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
通过解释性自表示图结构重构的方法,GCSR在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
Mar, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
May, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍GC-Bench,一个综合评估图压缩方法的框架,提供对GC过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
我们研究了图缩减的性能,并通过开发一个综合的图缩减基准测试库(GC-Bench)来评估12种最新的图缩减算法在不同场景下的效果、可迁移性和复杂性。
Jun, 2024