对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
我们研究了图缩减的性能,并通过开发一个综合的图缩减基准测试库 (GC-Bench) 来评估 12 种最新的图缩减算法在不同场景下的效果、可迁移性和复杂性。
Jun, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍 GC-Bench,一个综合评估图压缩方法的框架,提供对 GC 过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达 10 倍的加速。
Mar, 2024
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
图简化技术是一种应对大型图数据集复杂性和规模的有效方法,本调查研究对图稀疏化、图粗化和图凝聚等简化方法进行了全面概述,并阐述了它们在不同场景中的实际应用,为该领域的发展提供了技术综述和重要研究方向。
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
本文提出了一种结构自由图压缩范式(SFGC),该方法将大规模图形压缩为小规模无图结构的节点集,并介绍了一种训练轨迹元匹配方案和图神经特征评分指标检验了该方法的优越性。
Jun, 2023