SPDY:具有加速保证的精确裁剪
本文提出一种新的 fine-grained sparsity 方法,即平衡稀疏化方法,使得深度学习模型在商用硬件上得以高效地获得准确性和加速,同时利用 GPU 的高并行特性,取得了高达 3.1 倍的实际加速效果。
Nov, 2018
介绍了一种新的基于模式的稀疏性方法,该方法包括模式和连接度稀疏性,旨在通过权重剪枝同时提高模型准确度和硬件加速性能,并提供了一种针对移动设备的高效 DNN 执行的解决方案。
Jan, 2020
本文提出了一种算法 - 软件共同设计的剪枝方法,采用 “分块友好” 的稀疏模式来实现现有的密集结构上的延迟加速,旨在解决原先稀疏模型上由于随机分布权重导致计算不规则的问题,在 GPU 笔记本上成功地实现了 1.95 倍速度提升的优化效果。
Aug, 2020
提出一种新的模型压缩方法,通过允许稀疏模式的动态分配和合理使用反馈信号使得模型可以在单一训练过程中生成一个高性能的稀疏模型,且其性能超越了现有的所有修剪方案生成的模型,在 CIFAR-10 和 ImageNet 数据集上进行验证。
Jun, 2020
本文提出了一种新的计划性生长和修剪(GaP)方法,通过重复生长图层子集并在一定训练后将它们修剪回稀疏状态,以减少计算和内存成本,同时保持模型质量。实验结果表明,该方法获得的稀疏模型在各种任务中的性能都优于先前最先进的算法,并且无需预训练密集模型即可获得高质量的结果。
Jun, 2021
本文提出了一个基于动量优化(momentum-SGD-based optimization)的优化方法,用于压缩 DNN 模型,从而消除冗余参数,减少网络的复杂度。该方法采用全局压缩策略来自动找到层次的稀疏率,经过优化后能够无需耗费时间进行重训练的过程,具有更好的压缩效果和训练能力。
Sep, 2019
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023
在嵌入式环境中,卷积神经网络因其过多的权重存储和算术运算而未能得到广泛应用,为解决这一问题,本文提出了一种新的修剪方案,以反映加速器架构,通过此方案,性能得到了大幅提升,并成功应用于 AlexNet,VGG16,ResNet,MobileNet 等多种网络模型。
Apr, 2018
基于稀疏化剪枝的研究中,我们提出了一种增强稀疏化范式的结构化剪枝框架 (STP),通过自蒸馏的方式维持被剪枝权重的大小并增强保留权重的表现力。此外,为了找到最优的剪枝网络架构,我们采用了多维架构空间和知识蒸馏引导的探索策略,同时使用子网变异扩展技术来减小蒸馏的容量差距。大量实验证明了 STP 的有效性,特别是在极度激进的剪枝情况下,例如在 ImageNet 上对 ResNet-50 进行剪枝,保持 95.11% 的 Top-1 准确率(从 76.15% 减少 85% 的浮点操作)。
Mar, 2024
本文提出一种名为 “结构化概率剪枝” 的卷积神经网络加速新方法,采用概率剪枝方式剪枝卷积层权重,加速 AlexNet 和 VGG-16 在 ImageNet 分类中 4 倍和 2 倍的速度,并且只有 0.3% 和 0.8% 的前 5 位准确率损失。此外,SPP 可直接应用于加速 ResNet 等多分支 CNN 网络,且在 ImageNet 上只有 0.8% 的准确率损失。
Sep, 2017