基于原则的分层深度学习方法用于联合图像压缩和分类
通过充分利用现有的深度神经网络容量,本研究提出了一种改进压缩的方法,通过引导潜在特征学习更丰富和多样化的特征来实现更好的重构效果,并将通道相关的特征去相关损失集成到优化过程中,实验证明该方法在两种传统压缩方法上提高了压缩性能,没有增加额外的复杂性,可以作为类似方法的即插即用的优化方案。
Mar, 2024
我们提出了一种端到端学习的图像压缩编解码器,其中分析变换与目标分类任务同时训练。该研究证实,压缩的潜在表示能够以与定制的基于深度神经网络的质量指标相媲美的准确性预测人的感知距离判断。我们进一步研究了各种神经编码器,并展示了将分析变换作为超出质量判断之外的图像任务的感知损失网络的有效性。我们的实验表明,现成的神经编码器在感知建模方面表现出色,无需额外的 VGG 网络。我们期望这项研究能够成为开发语义感知和编码高效的神经编码器的有价值参考。
Jan, 2024
本研究旨在通过利用知识蒸馏和神经图像压缩的思想,采用先进的监督压缩方法,使用带有随机瓶颈的教师模型和学生模型,以及可学习的熵编码先验方法来更高效地压缩深度学习的中间特征表示。我们在三个视觉任务上将我们的方法与各种神经图像和特征压缩基线进行比较,并发现我们的方法在保持端到端时延更小的情况下,实现了更好的受监督的率失真性能。我们还展示了学习到的特征表示可以调整为服务于多个下游任务。
Aug, 2021
本研究提出了一种基于 3D-CNN 的条件概率模型方法,用于直接建模图像自动编码器隐层表示的熵,从而控制重构误差和信息熵之间的平衡关系,该方法在 MS-SSIM 能力测试中表现优异,成为一种最新的图像压缩系统。
Jan, 2018
该研究提出了一种基于三种新技术的统一框架,包括通道关注模块、高斯混合模型和解码器侧增强模块,命名为 EDIC,可用于基于学习的图像压缩,并说明该方法优于当前所有先进的图像压缩方法,同时将解码速度提高了超过 150 倍。
Feb, 2020
该篇论文介绍一种基于深度学习的分类驱动压缩框架,用于边缘计算和云计算的协同训练,可以在降低带宽消耗的同时,保持分类准确性,经过大量实验验证,和原始数据相比,该框架可以减少 14.9 倍的带宽消耗,且准确率不低于 1.06%.
May, 2020
本文考虑了在噪声信道上传输结构化数据(例如自然语言)的联合源编码和信道编码问题,提出了基于深度学习编码器和解码器以及将句子嵌入语义空间后进行联合编码的方法,旨在同时最小化端到端失真和字错误率。
Feb, 2018
提出了基于 Transformer 的非线性变换和包含两个不同超先验的熵模型,通过有效地捕获输入图像的局部和全局信息以及利用远距关系提取长程信息,能够在速率 - 失真性能方面表现优于现有的方法。
Sep, 2023
描述一种图像压缩方法,其由非线性分析变换、均匀量化器和非线性合成变换构成,并使用卷积线性滤波器和非线性激活函数的三个连续阶段构建变换,其中联合非线性性选择实现形式的局部增益控制,利用随机梯度下降的变体优化整个模型以实现训练图像数据库的速率失真性能,以及一个连续的代理来引入量化器产生的不连续损失函数,具有比标准 JPEG 和 JPEG2000 压缩方法更好的速率失真性能,并且在所有位率下对所有图像的视觉质量均有显著提高。
Nov, 2016
本研究提出了一种基于变量量化的控制器,它能动态分配显著通道和微不足道通道的比特率,同时我们提出了一种高斯混合模型量化器,并通过实验证明了我们的方法能够更好地重构图像并取得更好的性能。
Jul, 2020