基于压缩自编码器的有损图像压缩
本文提出了一种基于深度学习的图像压缩架构,利用卷积自编码器的优势达到了更高的编码效率,并利用主成分分析来产生一个更加能量紧凑的表示,实验结果表明,该方法相对于传统的图像编码算法在 Kodak 图像数据库上获得了 13.7%的 BD 速率降低,而且与 JPEG2000 具有类似的复杂度。
Apr, 2018
本文提出了一种基于深度生成模型的视频压缩方法,采用三维自编码器和自回归先验以最小化速率失真损失,实现编码效果优于现有的基于运动补偿或插值的视频压缩网络,并且在设计选择和压缩技术方面进行了系统评估和扩展,包括语义压缩、自适应压缩和多模态压缩,以便在非标准成像传感器捕获的多个模态数据上实现联合压缩。
Aug, 2019
我们提出了一个神经网络模型,能够在不牺牲重建质量的情况下,显著压缩大规模科学数据,并在公开的科学基准数据集和高分辨率气候模型数据集上进行了测试,达到了 140 的压缩比和可忽略的重建误差。
Jul, 2023
本研究提出了一种新的基于已有组件的网络结构用于快速学习视频压缩,针对现有方法的图形概率模型进行了分析并指出了实验评估中观察到的时间一致性和颜色偏移的问题,并提出了解决这些问题的方向。
Apr, 2020
本文提出了一种基于机器学习的图像有损压缩方法,运行实时且优于所有现有编解码器,其架构为自编码器,具备金字塔分析、自适应编码模块、期望码长的正则化等特点,并通过对抗训练以在极低比特率下提供视觉良好的重建效果。
May, 2017
提出了一种基于 SlimCAEs 的神经图像压缩模型,该模型能够在不同能力下共同优化速率和失真,并且在多个方面表现出卓越的性能,在实际图像压缩中具有很高的灵活性。
Mar, 2021
描述一种图像压缩方法,其由非线性分析变换、均匀量化器和非线性合成变换构成,并使用卷积线性滤波器和非线性激活函数的三个连续阶段构建变换,其中联合非线性性选择实现形式的局部增益控制,利用随机梯度下降的变体优化整个模型以实现训练图像数据库的速率失真性能,以及一个连续的代理来引入量化器产生的不连续损失函数,具有比标准 JPEG 和 JPEG2000 压缩方法更好的速率失真性能,并且在所有位率下对所有图像的视觉质量均有显著提高。
Nov, 2016