优化密集前馈神经网络
提出一种新的模型压缩方法,通过允许稀疏模式的动态分配和合理使用反馈信号使得模型可以在单一训练过程中生成一个高性能的稀疏模型,且其性能超越了现有的所有修剪方案生成的模型,在 CIFAR-10 和 ImageNet 数据集上进行验证。
Jun, 2020
本研究提出了一种简单而有效的方法,即使用预训练模型进行零 - shot 结构化剪枝,从而在尽量减少计算量的情况下实现性能的提升,实验证明,在低计算量条件下对预训练模型进行卷积过滤的剪枝可以带来超过 20% 的性能提升。
Apr, 2023
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
本文提出了一种基于层次的剪枝方法对深度神经网络进行压缩,通过独立剪枝每个层次的参数可以保证压缩后的网络只需要进行轻量级的重新训练即可恢复预测能力,并在基准数据集上进行了广泛实验以证明其有效性。
May, 2017
通过适用于边缘云资源的自适应压缩感知裂化学习方法,我们可以改善和训练深度学习模型,使其在网络上更加高效,并通过变换学习方法扩展训练,以换取更高效的推理能力,而不损失准确性。
Nov, 2023
本研究探讨在已训练的神经网络模型中修剪神经元的问题并提出了一种系统性的方式去除冗余的相似神经元,并且通过在 MNIST 训练网络中修剪密集连接层,达到 85% 的总参数去除率,在 AlexNet 上达到 35%去除率,并且没有明显影响其性能。
Jul, 2015
提出一种名为 MO-EvoPruneDeepTL 的多目标进化修剪算法,利用转移学习将深度神经网络的最后层替换为稀疏层,通过性能、复杂度和稳健性引导演化,实验结果表明该算法在所有目标方面都取得了有前途的结果,且网络修剪带来的影响有助于解释输入图像对于修剪神经网络预测最为相关的部分。最后通过利用不同修剪模型的集合显示整体性能和鲁棒性的提高。
Feb, 2023
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文提出了一种针对深度神经网络剪枝的数据无关的微调方法,使用合成图像进行训练,并通过中间监督来模拟未剪枝网络的输出特征图。实验结果表明,该方法相对于未剪枝模型具有具有很好的性能。
Jun, 2023