随机编码器的优点
通过实现一种统一的量化方式,消除训练和测试阶段的不匹配,使我们能够使用可完全区分的损失函数学习编码器。当遇到没有关于分布的假设时,这种方法的通用性可能会面临计算上的困难。最后,我们还展示了量化如何通过软量化实现,从而将压缩与无量化桥接起来。
Jun, 2020
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换 VAEs 中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
研究了使用 M 个隐藏层激活的样本进行训练时的随机网络,探讨了三种潜在好处,即允许学习一对多类型的映射,可用于内部结构重要的结构预测问题以及在一般情况下启用更好的概括性能。同时提出了两种新的梯度估计器来训练随机网络,实验证明这两种估计器在训练算法中表现优异。
Jun, 2014
本研究介绍了两种增强技术:通道调节和潜在残差预测,提出了比现有上下文自适应模型更好的网络架构,该模型在最小化串行处理、保持数据完整性等方面都性能更优,在 Kodak 和 Tecnick 图像集上的平均速率提高了 6.7% 和 11.4%。在低比特率下,本研究的模型可使速率提高 18%,比像 BPG 这样的手工工程编解码器提高 25%。
Jul, 2020
本文提出了一种用于编解码的离散自编码器模型,通过添加噪声来模拟信道以实现数据压缩和容错,得到了与现有方案相当的编码标准,并学习了下游任务(如分类)的有用鲁棒表征。最后,通过推理摊销,实现了一个快速的神经解码器,与迭代置信传播方法相比,速度提高了近一个数量级。
Nov, 2018
本文采用浅层甚至线性解码变换的方法来缩短神经图像压缩的解码复杂度,并通过加强编码器网络和迭代编码来提高压缩性能与解码复杂度之间的平衡,从而实现与传统 ME-Scale 超先验结构相当的失真压缩性能,同时将总解码复杂度降低 80%。
Apr, 2023
本文基于最小均方误差(MSE)和构造的完美感知解码器之间的输出进行线性插值实现失真和感知质量之间的权衡,提出了两个理论优化的训练框架,并通过实验证明这些框架在实际感知解码中不仅具有理论上的优越性,而且还能产生最先进的性能。
Jun, 2022