图结构的分析在大规模图数据上带来了显著的挑战,而图压缩是为了解决这些挑战而出现的解决方案之一,本文通过对图压缩的形式定义和分类研究方法,以及对数据集和评估指标的全面分析,提供了对这一领域的研究方向与挑战的认识,并给出了指导未来研究的简明指南。
Feb, 2024
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
Jun, 2024
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达 10 倍的加速。
Mar, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍 GC-Bench,一个综合评估图压缩方法的框架,提供对 GC 过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
我们研究了图缩减的性能,并通过开发一个综合的图缩减基准测试库 (GC-Bench) 来评估 12 种最新的图缩减算法在不同场景下的效果、可迁移性和复杂性。
通过解释性自表示图结构重构的方法,GCSR 在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
通过特征基匹配合成图 (GCEM) 方法,我们解决了现有方法在图神经网络 (GNN) 的合成图上存在的泛化能力差的问题,通过匹配真实图和合成图的特征基,消除了 GNN 的谱偏差,并保留了图的结构信息,大大缩小了不同 GNN 之间的性能差距。
Oct, 2023