LayerMerge: 神经网络深度压缩通过层修剪和合并
利用 LayerCollapse 方法进行适应性模型压缩,通过消除网络中的非线性并将两个连续的全连接层合并为单个线性变换,同时减少层数和参数数量,提高模型效率;引入压缩感知正则化器,根据数据集质量和模型表现压缩模型,减少过拟合;实验证明 LayerCollapse 在多个细粒度分类基准测试中实现有效的压缩和正则化,最高在训练后压缩 74% 但准确度损失最小;与知识蒸馏方法对比,在 ImageNet 数据集上计算效率提高五倍,整体准确度提高 8%。
Nov, 2023
本研究提出了一种新的神经元合并方法,通过分解原始权重矩阵,使用一个被称为缩放矩阵的指导矩阵来引导神经元的组合,以补偿由网络剪枝所导致的信息损失,并在各种模型结构和数据集上证实了本方法的有效性。
Oct, 2020
本研究提出一种新算法 —— 层补偿剪枝,采用元学习来确定更优的解决方案,成功将网络剪枝后的准确度降低到 0.7%,且由 1 小时缩短至 7 分钟的元学习时间可以节省大量资源和时间成本。
Oct, 2018
通过对特征图和卷积核级别进行修剪,可以减少深度卷积神经网络的计算复杂性,而且在 CIFAR-10 数据集上的实验证明,在保持基线网络误分类率不到 1% 的情况下,可以在卷积层中引入超过 85% 的稀疏性。
Oct, 2016
我们提出了一种在神经网络早期训练阶段识别和消除不相关层的算法。与权重或滤波器层剪枝相比,层剪枝能够减少神经网络中更难并行计算的顺序计算。我们采用了一种结构,在非线性网络部分周围使用剩余连接,使非线性部分进行剪枝后仍然能够在网络中传递信息。我们的方法基于变分推断原理,在神经网络权重上使用高斯规模混合先验,从而在训练和推理过程中实现大幅成本节省。该算法在 MNIST、CIFAR-10 和 ImageNet 数据集以及常见的 LeNet、VGG16 和 ResNet 架构上进行了评估,模拟实验结果表明,由于并行训练和剪枝,我们的方法在层剪枝方面以较低的计算成本实现了最先进的性能。
Jun, 2024
本文提出了一种新颖的全局压缩深度神经网络框架,通过使用低秩分解的方法在达到所需的整体压缩率的同时,对每层进行全面分析确定最佳的每层压缩比率,并利用等奇特展开定理和最优化算法来得到我们的解决方案。我们的实验表明,我们的方法在各种网络和数据集上优于现有的低秩压缩方法。
Jul, 2021
本文提出了一种基于层次的剪枝方法对深度神经网络进行压缩,通过独立剪枝每个层次的参数可以保证压缩后的网络只需要进行轻量级的重新训练即可恢复预测能力,并在基准数据集上进行了广泛实验以证明其有效性。
May, 2017
本文提出了一种卷积神经网络的结构冗余剪枝方法,通过在最具有结构冗余性的层剪枝,可以相对于之前研究集中在去除不重要滤波器的方法,更有效地压缩网络架构,并在不同的基准模型和数据集上获得了显著优越的表现
Apr, 2021
本文提出了 LayerPrune 框架,相较于传统基于 filter 的剪枝方法,LayerPrune 基于不同的剪枝指标实现了更高的延迟降低,并使用相同的 filter 重要性判定剪枝最不重要的层,较好地平衡了准确率和删除率。
Jul, 2020