通过混合精度量化、零点量化和熵编码将 Resnets 的压缩边界推进到 1 位以外,在 ImageNet 基准测试中准确度下降不超过 1%。
Jun, 2024
通过自动网络优化技术减少神经图像压缩中解码器的计算复杂度,探索码率失真性能和运行时间性能之间的平衡,提高图像压缩的计算效率。
Dec, 2019
本研究介绍了一种轻量级的压缩技术,用于在边缘设备上进行代码的分割,仅针对深度神经网络中的激活,而且不需要任何重新训练。当应用于流行的对象检测和分类深度神经网络时,能够将 32 位浮点激活压缩到 0.6 至 0.8 位,同时保持精度损失不到 1%。
May, 2021
用基于深度神经网络的质量敏感位速率自适应算法取代传统神经网络的定长空间位速率压缩算法,通过切块神经网络结构实现空间上下文预测,最终量化定量(PSNR)与定性(主观评估)评价得分优于其他基准模型。
Feb, 2018
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
描述一种图像压缩方法,其由非线性分析变换、均匀量化器和非线性合成变换构成,并使用卷积线性滤波器和非线性激活函数的三个连续阶段构建变换,其中联合非线性性选择实现形式的局部增益控制,利用随机梯度下降的变体优化整个模型以实现训练图像数据库的速率失真性能,以及一个连续的代理来引入量化器产生的不连续损失函数,具有比标准 JPEG 和 JPEG2000 压缩方法更好的速率失真性能,并且在所有位率下对所有图像的视觉质量均有显著提高。
Nov, 2016
本文提出一种基于深度学习的机器消耗数据压缩和量化框架,以最大化在融合中心推导出的全局决策的准确性为目标,并提出以感测目标为设计基础的数据压缩机制和熵量化器方法,相较于其他基准模型在性能上有较大提升。
Mar, 2022
本研究提出一种基于卷积神经网络的端到端图像压缩框架,通过特征描述神经网络获取低维有效描述,借助标准图像编解码器进一步压缩图像后,再通过后处理神经网络消除失真和压缩留痕,最终通过虚拟编解码器神经网络通过反向传播优化整个系统。实验结果表明该方法在极低比特率下比当前现有算法性能更优。
Dec, 2017
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015
本研究介绍了两种增强技术:通道调节和潜在残差预测,提出了比现有上下文自适应模型更好的网络架构,该模型在最小化串行处理、保持数据完整性等方面都性能更优,在 Kodak 和 Tecnick 图像集上的平均速率提高了 6.7% 和 11.4%。在低比特率下,本研究的模型可使速率提高 18%,比像 BPG 这样的手工工程编解码器提高 25%。
Jul, 2020