学习阈值修剪
本文针对在边缘设备上部署复杂深度学习模型的挑战,提出了两种基于激活函数的迭代剪枝方法,通过研究结构剪枝与权重剪枝方法的区别,说明结构剪枝会更适合在通用硬件上实现。与权重剪枝相比,这两种方法能更好地压缩模型,并实现更高的准确性。
Jan, 2022
本文介绍了一种具有可扩展性的训练可塑性剪枝方法(TPP),该方法通过惩罚卷积内核的克罗内克矩阵来使神经网络保持可训练性,从而在剪枝表现和对再培训超参数的鲁棒性方面得到了改善,特别是在具有非线性结构的 ConvNets 上表现明显优于其他对应方法。
Jul, 2022
本论文提出了一种用于深度神经网络的训练后权重修剪方法,其在生产环境中能够达到可接受的精度水平,并且足够快速以在桌面 CPU 或边缘设备等通用硬件上运行。该方法针对基于自动生成的合成分形图像的计算机视觉模型的无数据扩展,实现了数据免费的神经网络修剪,并在 ImageNet 数据集上获得了最新的数据免费神经网络修剪结果,对于 50% 的稀疏率下使用 ResNet50 的 top@1 准确率丢失约为 1.5%。在使用真实数据时,能够获得在 8 位精度下稀疏率为 65% 的 ResNet50 模型,而仅准确率下降约为 1%。
Apr, 2021
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
本文提出了一种新的学习 Token 修剪 (LTP) 方法,旨在优化 transformer 模型输入序列的推理成本,通过对注意力得分低于阈值的无关 Token 进行逐层自适应性的修剪,从而获得 2.5% 的性能提升和 FLOPs 降低,进而显著提高了处理器和 GPU 的吞吐量,并展示了更好的鲁棒性能。
Jul, 2021
这篇论文介绍了一种名为 LTMP 的学习阈值符号合并和修剪方法,它通过动态确定合并和修剪的符号,以降低计算视觉变换器所需的输入符号数量,实现了在降低速率的同时保持最先进的准确性,在仅一个微调阶段的情况下比先前的方法快一个数量级以上。
Jul, 2023
在本文中,我们介绍了学习差距的概念,并强调其与泛化能力的准确相关性。实验表明,学习差距以网络倒数第二层的特征图的形式与泛化性能的变化相一致。我们提出了一种新的学习框架,LNPT,使得云端的成熟网络能够对没有标签的智能设备上的网络修剪和学习提供在线指导。我们的结果证明了这种方法优于监督训练。
Mar, 2024
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
本文提出了一种基于层次的剪枝方法对深度神经网络进行压缩,通过独立剪枝每个层次的参数可以保证压缩后的网络只需要进行轻量级的重新训练即可恢复预测能力,并在基准数据集上进行了广泛实验以证明其有效性。
May, 2017