图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍 GC-Bench,一个综合评估图压缩方法的框架,提供对 GC 过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
图结构的分析在大规模图数据上带来了显著的挑战,而图压缩是为了解决这些挑战而出现的解决方案之一,本文通过对图压缩的形式定义和分类研究方法,以及对数据集和评估指标的全面分析,提供了对这一领域的研究方向与挑战的认识,并给出了指导未来研究的简明指南。
Feb, 2024
本研究提供了首个大规模的 Dataset Condensation 标准化基准,通过其生成的数据集全面反映了浓缩方法的通用性和有效性,并报告了许多有见地的发现,为未来的发展开辟了新的可能性。
Jul, 2022
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达 10 倍的加速。
Mar, 2024
在本研究中,我们提出了一种高效且可解释的图压缩方法 EXGC,它通过采用 Mean-Field 变分逼近和梯度信息瓶颈目标来解决当前范式存在的效率和冗余性问题,在增加可解释性的同时显著提升了效率。我们在八个数据集上进行了全面评估,证明了 EXGC 的优越性和相关性。
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021