RobGC:走向强大的图压缩
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
May, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍 GC-Bench,一个综合评估图压缩方法的框架,提供对 GC 过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
大规模图的压缩是一个重要的研究领域,本文提出了第一个大规模图压缩基准,名为 GCondenser,为综合评估和比较主流的 GC 方法提供了标准化的框架和评估程序,并展示了现有方法的有效性。
May, 2024
图结构的分析在大规模图数据上带来了显著的挑战,而图压缩是为了解决这些挑战而出现的解决方案之一,本文通过对图压缩的形式定义和分类研究方法,以及对数据集和评估指标的全面分析,提供了对这一领域的研究方向与挑战的认识,并给出了指导未来研究的简明指南。
Feb, 2024
在本研究中,我们提出了一种高效且可解释的图压缩方法 EXGC,它通过采用 Mean-Field 变分逼近和梯度信息瓶颈目标来解决当前范式存在的效率和冗余性问题,在增加可解释性的同时显著提升了效率。我们在八个数据集上进行了全面评估,证明了 EXGC 的优越性和相关性。
Feb, 2024
我们研究了图缩减的性能,并通过开发一个综合的图缩减基准测试库 (GC-Bench) 来评估 12 种最新的图缩减算法在不同场景下的效果、可迁移性和复杂性。
Jun, 2024
提出一种名为图修正卷积网络(GRCN)的框架,通过引入基于 GCN 的图修正模块来预测缺失边并在下游任务中进行边缘权重修正,以避免过度参数化或简单的重新加权观察到的边缘的问题,并且在六个基准数据集上的实验结果表明,与强基准方法相比,GRCN 始终表现出较大的优势,尤其是原始图严重不完整或用于模型训练的标记实例高度稀疏的情况。
Nov, 2019