本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种GNN体系结构,测试结果在Reddit上可达到95.3%,在Flickr上可达到99.8%,在Citeseer上可达到99.0%,同时将其图的尺寸缩小了99.9%以上。
Oct, 2021
提出一种数据集整理框架(GC-SNTK),通过使用基于结构的神经切割核(SNTK)来加速图的整理并保持高预测性能。
Oct, 2023
本论文提出了用于各种大小的大规模图的可扩展图压缩方法DisCo,其中有两个互补的组件,即节点压缩模块和边压缩模块,实现了节点和边的分离压缩。通过在预训练节点分类模型中合并类别质心对齐和锚点附加正则化器,节点压缩模块可以生成类似于原始节点的特征分布的合成节点,并将原始图的连边预测模型转移到压缩的节点中,生成相应的压缩边。实验证明,DisCo方法在五个常见数据集上的结果明显优于目前最先进的方法。
Jan, 2024
通过优化的起始点和更精细的梯度匹配策略,提出了一种名为CTRL的新型图图聚类方法,在多个图数据集和下游任务上进行了广泛实验证实其有效性。
Feb, 2024
通过使用课程学习策略和扩展窗口匹配技术,本文尝试进行无损图稀疏化,并设计了一种损失函数来从专家轨迹中提取知识,理论分析证明了方法的合理性,并通过广泛实验证实其优越性。
通过解释性自表示图结构重构的方法,GCSR在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
Mar, 2024
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达10倍的加速。
通过 Class-partitioned Graph Condensation (CGC) 方法,能够在更有效的压缩过程中实现最先进的性能。
May, 2024
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
Jun, 2024
用TinyGraph框架在大规模图上同时压缩特征和节点,通过匹配梯度实现特征压缩并保留关键信息,在减少节点和特征数量的同时仍能保持原始测试准确率的大部分。
Jul, 2024