- MM通过可逆激活变换实现高保真可变速率图像压缩
本文通过引入 Invertible Activation Transformation (IAT) 模块来解决图片在多次压缩/解压缩操作下质量下降的问题,实现了更好的维护图片保真度的同时,拥有细粒度的压缩率控制并取得了和目前最好的类似学习方 - MM点云几何压缩的基于补丁的深度自编码器
本文提出了一种基于块的压缩算法,使用深度学习对点云的几何信息进行有损压缩,并取得了优于现有算法的压缩比。该算法在编解码时将点云划分为块进行压缩,使用局部重构误差作为优化标准,保证压缩后的点数与原始数据相等。同时,该算法的网络模型还可方便地应 - ICML软硬结合:重新思考神经图像压缩中的量化
提出了一种软硬编码的方法用于神经图像压缩,通过先学习一个表达力强的隐变量空间,再采用硬编码方法解决了训练集和测试集不匹配的问题,同时引入加性噪声自适应控制量化粒度,实验结果表明该方法在复杂压缩模型上表现稳定且有效。
- CVPR实用神经图像压缩的可裁剪压缩自编码器
提出了一种基于 SlimCAEs 的神经图像压缩模型,该模型能够在不同能力下共同优化速率和失真,并且在多个方面表现出卓越的性能,在实际图像压缩中具有很高的灵活性。
- 使用全局参考学习精准熵模型进行图像压缩
本研究提出了一种新的图像全局参考模型,能够有效利用局部和全局上下文信息,以提高深度图像压缩的性能表现,并且拥有最先进的速率 - 失真性能,同时还新创了一种平均偏移 GDN 模块。
- ECCV学习如何在不改变标准解码器的情况下改善图像压缩
本文提出了一种用于改善标准 JPEG 编码器的编码性能的学习方法,通过频域预编辑和同时学习 JPEG 量化表和预编辑神经网络可以有效改善 JPEG 的失真压缩性能。
- 用于学习图像压缩的通道方向自回归熵模型
本研究介绍了两种增强技术:通道调节和潜在残差预测,提出了比现有上下文自适应模型更好的网络架构,该模型在最小化串行处理、保持数据完整性等方面都性能更优,在 Kodak 和 Tecnick 图像集上的平均速率提高了 6.7% 和 11.4%。在 - 非线性变换编码
评估了一类名为非线性变换编码(NTC)的方法,这些方法在过去几年中已经与最佳线性变换编解码器在图像方面具有竞争力,并以已建立的感知质量指标(例如 MS-SSIM)超越了它们的速率 - 失真性能。通过简单示例源的帮助,评估了 NTC 的经验速 - 端到端有损图像压缩学习:一个基准
该论文对学习图像压缩方法进行了全面的文献综述,并提出了一种基于粗到细超先验模型的熵估计和信号重建方法,以提高图像压缩的效率和性能。
- 计算效率高的神经图像压缩
通过自动网络优化技术减少神经图像压缩中解码器的计算复杂度,探索码率失真性能和运行时间性能之间的平衡,提高图像压缩的计算效率。
- CVPR针对神经图像压缩的内容自适应优化
本研究探讨了内容自适应优化对神经图像压缩表现的影响,介绍了一种迭代过程,该过程使得潜在表示适应特定内容,同时保持网络和预测模型的参数固定。实验结果表明,与特定结构的模型相比,这种方法能够增加速率 - 失真性能,同时不需要额外传输模型参数更新 - 基于图像的局部熵模型的学习图像压缩
本文介绍了一种通过加入图像依赖的信息来提高基于人工神经网络的图像压缩方法的性能的方法,并在标准评估数据集上实现了 17.8%的速率降低和 70-98%的在视觉复杂性低的图像上的性能提升。
- 使用深度卷积神经网络的压缩图像超分辨率重建
本文提出了一种基于深度卷积神经网络的端到端训练模型,用于对压缩图像进行超分辨率重建和压缩伪影去除,实验证明该模型在 JPEG 压缩图像上表现出优异的超分辨率性能和比 JPEG 更好的速率 - 失真性能。