本研究提出了一种新的压缩方案 Bit-Swap,用于实现具有 Markov 链结构的分层隐变量模型的失真压缩,实验表明此方案比现有技术更加优越。
May, 2019
本文介绍了利用更紧密的变分上限构建的 bits-back 编码算法来消除 KL 散度对速率效率的影响,并提出了利用延伸空间表示来优化 MC 估计的关键思想,并通过在潜在空间中耦合来大大减少额外成本,最终实现了较 bits-back 更好的无损压缩速率。
Feb, 2021
本文研究了利用深度潜变量模型进行有损图像压缩的问题,并提出了迭代推理、离散优化的随机退火以及 bits-back 编码等方法,取得了新的最优表现。
Jun, 2020
本文观察到了完全卷积 VAE 模型在对于 32x32 的 ImageNet 数据集进行训练后不仅可泛化到 64x64,还能很好地扩展到更大的照片,且不需要修改模型。作者使用这种特性将完全卷积模型应用于无损压缩,并展示了一种将基于 VAE 的 Bits-Back with ANS 算法扩展到大型彩色照片的方法并获得了最先进的结果。此外,作者还发布了 Craystack 库,一个开源、方便的概率模型无损压缩原型库,其中包含了所有压缩结果的完整实现。
Dec, 2019
本文提出了一种用于流模型的新的压缩技术 —— 局部 Bits-Back 编码,并为许多流模型提供了高效的算法来实现该技术,实验表明该算法可以实现先进的流模型在高维数据上的理论码率。
本文提出了一种通过使用全变分权重分布进行深度神经网络压缩的方法,能够实现更高的压缩率和更高的测试性能,并在 LeNet-5/MNIST 和 VGG-16/CIFAR-10 基准测试中创造出新的最优结果。
Sep, 2018
我们提出了一种新颖的算法来量化训练模型中的连续潜在表达式,该算法适用于深度概率模型,可以实现数据和模型压缩,并且可以基于后验不确定性使用自适应量化精度来实现可变的码率失真折衷,实验证明了所提出的算法的有效性。
Feb, 2020
提出了一种新的相对熵编码方法 Relative Entropy Coding (REC),可应用于单图像的压缩,并在 Cifar10、ImageNet32 和 Kodak 数据集上进行了实证研究,得到了支持 REC 的实证结果;与之前的 bits-back 方法不同,REC 可立即应用于有损压缩,并在 Kodak 数据集上与最新技术相比具有竞争力。
Oct, 2020
本文利用无监督目标设计神经压缩器进行图像压缩,以满足具有数据增强特征的所有预测任务的高性能,实现了大幅度节省数据率的效果,同时不会降低下游分类性能。
Jun, 2021
提出了一种新颖的极端图像压缩框架,该框架将压缩 VAEs 和预训练的文本到图像扩散模型结合在一起,通过潜在特征引导压缩模块进行图像压缩并解码为内容变量,然后利用预训练的扩散模型进一步解码这些内容变量,实验结果表明在极低比特率下,该方法在视觉表现和图像保真度方面优于现有方法。
Apr, 2024