本文研究了利用深度潜变量模型进行有损图像压缩的问题,并提出了迭代推理、离散优化的随机退火以及 bits-back 编码等方法,取得了新的最优表现。
Jun, 2020
本研究提出了一种基于 3D-CNN 的条件概率模型方法,用于直接建模图像自动编码器隐层表示的熵,从而控制重构误差和信息熵之间的平衡关系,该方法在 MS-SSIM 能力测试中表现优异,成为一种最新的图像压缩系统。
Jan, 2018
本文提出了一种选择性压缩方法来进行基于深度学习的可变速率图像压缩,该方法通过生成 3D 重要性映射并调整该映射来确定不同目标质量水平的压缩所需的基本表示元素。实验结果表明,该方法可以获得与单独训练的参考压缩模型相当的压缩效率,并可以减少解码时间。
Nov, 2022
我们提出了一种新颖的算法来量化训练模型中的连续潜在表达式,该算法适用于深度概率模型,可以实现数据和模型压缩,并且可以基于后验不确定性使用自适应量化精度来实现可变的码率失真折衷,实验证明了所提出的算法的有效性。
Feb, 2020
使用压缩自编码器进行潜在变量估计,在变分推断框架内实现此估计,并能快速、简便(近似地)进行后验采样,证明该方法能够与最先进的即插即用方法达到类似的性能,并且能够比其他现有的后验采样技术更快地量化不确定性。
Nov, 2023
本文介绍一种基于自动编码器和潜变量表示的神经压缩方法,并探讨了在训练后适应单个视频、发送模型更新以及重新调整参数等方面的改进措施。结果表明,相较于仅调整编码器的方式,对整个模型进行调整可以提高图像在视频中的压缩性能约 1 dB。
Jan, 2021
本研究论文提出并验证了一种使用基于变分自编码器的可端到端训练模型的图像压缩方法,其中使用了超先验来有效地捕获潜在表示中的空间依赖关系,证明该模型在使用 MS-SSIM 指标度量视觉质量时具有最先进的图像压缩性能,并提供了不同失真度指标的不同训练模型之间的定性比较。
Feb, 2018
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023
该研究提出了一种改进的神经压缩方法,通过使用复杂的语义集成损失、潜在精细化过程和优化可视保真度的目标,显著提高了神经图像压缩的统计保真度,并在 CLIC2024 验证集上相较于 MS-ILLM 在 FID 指标下实现了 62% 的比特率节省。
Jan, 2024
本文提出了一种基于变分贝叶斯神经网络的数据压缩方法,并使用相对熵编码代替量化和熵编码以优化 $eta$-ELBO 的速率失真性能,同时通过迭代算法学习先验权重分布并采用渐进式细化过程来有效提高压缩性能。实验证明,该方法在图像和音频压缩方面具有强大的性能,同时仍保持简洁。
May, 2023