逐层数据无关 CNN 压缩
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
本文主要探讨了一种基于强化学习技术的卷积神经网络模型压缩方法,该方法实现了两阶段压缩:剪枝和量化,并在 CIFAR-10 和 ImageNet 数据集进行了实验,结果表明该方法能够在减小模型大小的同时保证分类精度。
Dec, 2019
本文提出了一种新颖的一次性剪枝量化(OPQ)方法,使用预先训练的模型参数解决剪枝和量化问题,并通过统一的通道量化方法提高了训练效率和压缩比。对于 AlexNet/MobileNet-V1/ResNet-50 等模型在 ImageNet 数据集上展开全面实验,结果表明该方法相对于目前最先进的技术可以获得更高的压缩比和更好的训练效率。
May, 2022
本文研究深度神经网络的权重量化和无损源编码的有损压缩以实现内存有效部署,通过引入通用向量量化和通用源编码,实现了通用的深度神经网络压缩,并尝试运用通用随机格量化方法来随机化神经网络权重,证明该方法在压缩 32 层的 ResNet 和 AlexNet 时具有较高的压缩比和较低的失真率。
Feb, 2018
本文提出了一种新颖的全局压缩深度神经网络框架,通过使用低秩分解的方法在达到所需的整体压缩率的同时,对每层进行全面分析确定最佳的每层压缩比率,并利用等奇特展开定理和最优化算法来得到我们的解决方案。我们的实验表明,我们的方法在各种网络和数据集上优于现有的低秩压缩方法。
Jul, 2021
本论文提出三种从训练模型中生成合成样本的方法,用于压缩和微调量化模型,不需要真实数据支持,可以用于数据敏感情况,最佳方法与原始训练样本相比具有可忽略的准确度下降,此方法利用训练模型的内在批归一化层统计信息,可用于评估数据之间的相似性,为真正的数据无损模型压缩打开了道路,并在模型部署过程中减轻了对训练数据的需求。
Dec, 2019
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017
提出了一种名为 Unified Data-Free Compression(UDFC)的新框架,它能够在没有数据和微调过程的情况下同时进行修剪和量化,从而减少神经网络的推理时间和内存占用。在大规模图像分类任务上评估 UDFC,与各种网络架构和压缩方法相比,获得了显著的改进。
Aug, 2023
本论文提出了一种用于深度神经网络的训练后权重修剪方法,其在生产环境中能够达到可接受的精度水平,并且足够快速以在桌面 CPU 或边缘设备等通用硬件上运行。该方法针对基于自动生成的合成分形图像的计算机视觉模型的无数据扩展,实现了数据免费的神经网络修剪,并在 ImageNet 数据集上获得了最新的数据免费神经网络修剪结果,对于 50% 的稀疏率下使用 ResNet50 的 top@1 准确率丢失约为 1.5%。在使用真实数据时,能够获得在 8 位精度下稀疏率为 65% 的 ResNet50 模型,而仅准确率下降约为 1%。
Apr, 2021