本文提出了一种基于变分贝叶斯神经网络的数据压缩方法,并使用相对熵编码代替量化和熵编码以优化 $eta$-ELBO 的速率失真性能,同时通过迭代算法学习先验权重分布并采用渐进式细化过程来有效提高压缩性能。实验证明,该方法在图像和音频压缩方面具有强大的性能,同时仍保持简洁。
May, 2023
本研究借鉴于压缩感知技术提出了基于不确定性自编码器的无监督表示学习框架,利用低维投影作为自编码器的噪声隐含表示,并直接学习数据信号的压缩和恢复,这一模型统一了压缩感知、生成模型、降维方法等多种线性研究,所得的统计压缩感知结果比其他竞争方法平均提高 32%。
Dec, 2018
本文利用无监督目标设计神经压缩器进行图像压缩,以满足具有数据增强特征的所有预测任务的高性能,实现了大幅度节省数据率的效果,同时不会降低下游分类性能。
Jun, 2021
这篇论文探讨了自动编码器学习图像压缩变换的问题,通过仅仅学习一个变换,在测试时间通过改变量化步长实现不同的速率 - 失真点,从而获得了可比较的性能,并且节省了大量的训练时间。
Feb, 2018
本文提出一种利用深度学习自编码器结构进行有损图像压缩的系统,通过残差块和跳跃连接降低图像像素相关性,使用重要性映射和量化器实现比特分配和比特率控制,该自编码器和重要性网络是联合训练,目的在于满足每像素 0.15 比特的限制条件下,产生具有良好主观质量的重构图像。
Feb, 2019
我们提出了一种端到端学习的图像压缩编解码器,其中分析变换与目标分类任务同时训练。该研究证实,压缩的潜在表示能够以与定制的基于深度神经网络的质量指标相媲美的准确性预测人的感知距离判断。我们进一步研究了各种神经编码器,并展示了将分析变换作为超出质量判断之外的图像任务的感知损失网络的有效性。我们的实验表明,现成的神经编码器在感知建模方面表现出色,无需额外的 VGG 网络。我们期望这项研究能够成为开发语义感知和编码高效的神经编码器的有价值参考。
Jan, 2024
本文提出了一种基于深度学习的图像压缩架构,利用卷积自编码器的优势达到了更高的编码效率,并利用主成分分析来产生一个更加能量紧凑的表示,实验结果表明,该方法相对于传统的图像编码算法在 Kodak 图像数据库上获得了 13.7%的 BD 速率降低,而且与 JPEG2000 具有类似的复杂度。
Apr, 2018
使用全卷积自编码器结合算术编码实现医学影像的有损压缩,并在公开数据集上进行性能测试,最高压缩比可达 300 倍。
May, 2018
本研究提出了一种基于 3D-CNN 的条件概率模型方法,用于直接建模图像自动编码器隐层表示的熵,从而控制重构误差和信息熵之间的平衡关系,该方法在 MS-SSIM 能力测试中表现优异,成为一种最新的图像压缩系统。
Jan, 2018
本文提出一种基于分块离散余弦变换(DCT)块的生成模型,使用 Transformer-based 自回归模型对块进行预测,以生成高质量、多样化的图像,并展示了对于简单的改进,该方法在图像着色和高精度图像放大方面也具有有效性。
Mar, 2021