级联投影:端到端的网络压缩和加速
该论文提出了一种基于滤波器组逼近的新型分解方法,该方法可以显著减少深度卷积神经网络中的冗余,同时保持大部分特征表示,通过在每层中利用滤波器组结构,相比于其他基于低秩分解算法,我们的方法可以在多个图像分类数据集上减少 80% 以上的算术运算量(FLOPs),并减少精度损失,另外,实验证明我们的方法有助于缓解压缩网络的退化现象,从而提高网络的收敛性和性能。
Jul, 2018
本文提出了一种协同压缩方案,将通道剪枝和张量分解结合起来,通过同时学习模型的稀疏性和低秩性来压缩 CNN 模型。该方法在各个数据集和骨干架构上展示了优越的性能提升,例如在 ImageNet 2012 上,我们通过删除 48.4%的参数从 ResNet-50 模型中达到 52.9%的 FLOPs 减少,仅有 0.56%的 Top-1 准确度降低。
May, 2021
提出了一种简单而有效的方案 —— 单次整个网络压缩,以在移动设备上部署深度卷积神经网络,并通过对各种压缩卷积神经网络在智能手机上的性能进行测试,证明了所提方案的有效性,可获得显著的模型尺寸、运行时间和能量消耗的降低,同时只付出了小量精度损失。
Nov, 2015
该研究论文提出了一种基于 PCA 的单次分析方式,可在不进行迭代重新训练的情况下,优化计算机视觉中的深度学习模型,包括 AlexNet,VGG 和 MobileNet,减少计算操作次数和参数数量。
Dec, 2018
本研究提出了一种新型的 12 层深度卷积神经网络,用于图像压缩伪影抑制,其具有分层跳过连接和多尺度损失函数。相较于普通的 JPEG,可提高高达 1.79 dB 的峰值信噪比,并且相较于先前最佳 ConvNet 结果提高高达 0.36 dB。该研究表明,训练用于特定质量因子 (QF) 的网络对于压缩输入图像所使用的 QF 是有韧性的,单个针对 QF 60 训练的网络在多种 QF 范围内 (40 至 76) 提供超过 1.5 dB 的 PSNR 增益。
Nov, 2016
引入一种新的紧凑型神经网络结构,该结构使用联合优化框架进行训练,包括一个全训练神经网络和一个利用随机投影进行输入或中间表示转换的简单的 “投影” 网络。使用全网络来指导投影网络的训练。经过训练的小型网络可以用于低内存和计算成本的推理,并且在视觉识别和文本分类任务中保持良好的准确性。
Aug, 2017
本文介绍了一种基于剪枝策略的 CNN 结构压缩方法 CAR。CAR 通过去除对分类精度影响最小的滤波器实现了近似原始分类精度的同时,保留了原始网络中有代表性的滤波器。压缩后的网络更容易理解,因为具有更少的滤波器数目。此外,作者还提出了一种变种算法来量化每个图像类别对每个 CNN 滤波器的重要性,最和次重要的分类标签被证明是每个滤波器的有意义的解释。
May, 2017
本文提出了基于卷积神经网络的图像压缩框架,其中包括用于压缩的紧凑型 CNN 和用于重构压缩图像的重构型 CNN,开发了一种统一的端到端学习算法以有效协同两种 CNN,并与现有的图像编码标准兼容。实验结果表明,所提出的压缩框架大大优于使用现有图像编码标准的多种压缩框架。
Aug, 2017