图神经网络稀疏训练的全面图剪枝
本研究提出了两种方法来提高图神经网络 (GNN) 在图稀疏度高的情况下的性能:(1) 使用辅助 loss 以涵盖整个邻接矩阵的所有元素来指导边缘裁剪,(2) 将裁剪过程形式化为最小化 - 最大化优化问题来提高稳健性。此外,本研究还得出了可传递的图彩票假设,并证明了提出的算法优于现有方法,实验证明了传递的图彩票假设。
May, 2023
提出了一种统一的 GNN 稀疏化 (UFG) 框架,同时剪枝图邻接矩阵和模型权重,以有效加速大规模图上的 GNN 推理,并将 lottery ticket 假设推广到 GNN,定义了图 lottery ticket (GLT) 作为核心子数据集和稀疏子网络对的一对,从原始的 GNN 和全密集图中通过迭代应用 UFS 联合鉴定。在各种 GNN 架构和不同任务的数据集上进行了实验验证,表明在不影响预测性能的前提下,GLT 能够实现小和大规模图数据集上的 MACS 节约。
Feb, 2021
本文提出了 Continuous Growth and Pruning (CGaP) 方法,旨在在训练模型期间最小化冗余并从一开始便避免引入冗余,通过持续增长和修剪过程获取紧凑和准确的模型。根据实验结果,在代表性数据集和 DNN 结构上,CGaP 的效果优于以前的仅修剪预定义结构的方法,达到了参数减少 78.9%和 85.8%,FLOPs(浮点计算数)减少 53.2%和 74.2%。
May, 2019
本论文研究了通过神经再生技术改进的渐进式剪枝算法(GraNet),它结合了取得与单次剪枝同等性能和训练 / 推理效率的优点,尤其是其稀疏 - 稀疏模式极大地提高了 ResNet-50 在 ImageNet 上的性能。
Jun, 2021
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
本文提出了一种新的计划性生长和修剪(GaP)方法,通过重复生长图层子集并在一定训练后将它们修剪回稀疏状态,以减少计算和内存成本,同时保持模型质量。实验结果表明,该方法获得的稀疏模型在各种任务中的性能都优于先前最先进的算法,并且无需预训练密集模型即可获得高质量的结果。
Jun, 2021
使用混合图 (MoG) 技术对图神经网络进行图稀疏化处理,针对每个节点的特定环境选择合适的稀疏方案,并在 Grassmann 流形上生成最优稀疏图,从而实现更高的稀疏度水平、GNN 推理速度的提升,并改善 “顶级学生” GNN 在性能上的表现。
May, 2024
本文提出通过修剪每层维度中对输出结果的影响程度很小的特征维度,使用 LASSO 回归公式设计修剪框架来加速 GNN 推理。针对计算和存储情景,设计了修剪方案。此外,还有效地存储和重复利用已访问节点的隐藏特征,显著降低了计算目标嵌入所需支持节点的数量。本文在五个流行数据集上和一个实时垃圾邮件检测应用中评估了所提出的方法,证明剪枝 GNN 模型大大降低了计算和存储使用,同时几乎不影响准确度。
May, 2021
本文提出了一种新的广义 PageRank(GPR)图神经网络(GNN)架构,用于联合优化节点特征和拓扑信息提取,无论节点标签是同质的还是异质的。通过学习 GPR 权重,学到适应节点标签模式的权重,避免了特征信息过度平滑的问题,从而提高了在同质性和异质性数据集上的节点分类性能。
Jun, 2020
本文介绍了一种新的轻量级 GCN 设计:概率幅值剪枝 (PMP),该方法通过联合训练网络拓扑和权重,通过对齐已知先验分布的权重分布来实现任何固定剪枝率,以及增强设计的轻量级 GCN 的泛化性能。在处理基于骨骼的识别任务时,本文进行了大量的实验证明,轻量级 GCN 在非常高的剪枝基准下有显着的性能提升。
May, 2023