简洁图压缩
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
May, 2024
本文提出了一种结构自由图压缩范式(SFGC),该方法将大规模图形压缩为小规模无图结构的节点集,并介绍了一种训练轨迹元匹配方案和图神经特征评分指标检验了该方法的优越性。
Jun, 2023
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
图神经网络 (GNNs) 在处理大规模图时遇到了显著的计算挑战,这严重限制了它们在各种应用中的效力。为了解决这个限制,图压缩成为一种有前景的技术,它构建一个小的合成图以有效地训练 GNNs 并保持性能。然而,由于节点之间的拓扑结构,图压缩仅限于压缩观测训练节点及其相应的结构,因此缺乏处理未见数据的能力。因此,在推理阶段仍需要原始大图进行信息传递,导致了大量的计算需求。为了解决这个问题,我们提出了映射感知的图压缩 (MCond),明确学习原始节点到合成节点的一对多映射,以无缝地将新节点整合到合成图中进行归纳表示学习。这使得直接在合成图上进行信息传播比在原始大图上更高效。具体而言,MCond 采用了交替优化方案,具有来自传统的和归纳的角度的创新损失项,促进了图压缩和节点映射学习之间的相互促进。大量实验证明了我们方法在归纳推理中的有效性。在 Reddit 数据集上,与基于原始图的对照方法相比,MCond 在推理速度上实现了高达 121.5 倍的加速和 55.9 倍的存储需求降低。
Jul, 2023
通过解释性自表示图结构重构的方法,GCSR 在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
Mar, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍 GC-Bench,一个综合评估图压缩方法的框架,提供对 GC 过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
图结构的分析在大规模图数据上带来了显著的挑战,而图压缩是为了解决这些挑战而出现的解决方案之一,本文通过对图压缩的形式定义和分类研究方法,以及对数据集和评估指标的全面分析,提供了对这一领域的研究方向与挑战的认识,并给出了指导未来研究的简明指南。
Feb, 2024