基于结构的神经切线核的快速图压缩
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种GNN体系结构,测试结果在Reddit上可达到95.3%,在Flickr上可达到99.8%,在Citeseer上可达到99.0%,同时将其图的尺寸缩小了99.9%以上。
Oct, 2021
本文提出了一种结构自由图压缩范式(SFGC),该方法将大规模图形压缩为小规模无图结构的节点集,并介绍了一种训练轨迹元匹配方案和图神经特征评分指标检验了该方法的优越性。
Jun, 2023
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
本论文提出了用于各种大小的大规模图的可扩展图压缩方法DisCo,其中有两个互补的组件,即节点压缩模块和边压缩模块,实现了节点和边的分离压缩。通过在预训练节点分类模型中合并类别质心对齐和锚点附加正则化器,节点压缩模块可以生成类似于原始节点的特征分布的合成节点,并将原始图的连边预测模型转移到压缩的节点中,生成相应的压缩边。实验证明,DisCo方法在五个常见数据集上的结果明显优于目前最先进的方法。
Jan, 2024
通过解释性自表示图结构重构的方法,GCSR在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
Mar, 2024
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
May, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍GC-Bench,一个综合评估图压缩方法的框架,提供对GC过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
用TinyGraph框架在大规模图上同时压缩特征和节点,通过匹配梯度实现特征压缩并保留关键信息,在减少节点和特征数量的同时仍能保持原始测试准确率的大部分。
Jul, 2024