COIN: 内隐神经表示压缩
本文提出了一种基于变分贝叶斯神经网络的数据压缩方法,并使用相对熵编码代替量化和熵编码以优化 $eta$-ELBO 的速率失真性能,同时通过迭代算法学习先验权重分布并采用渐进式细化过程来有效提高压缩性能。实验证明,该方法在图像和音频压缩方面具有强大的性能,同时仍保持简洁。
May, 2023
我们提出了一种端到端学习的图像压缩编解码器,其中分析变换与目标分类任务同时训练。该研究证实,压缩的潜在表示能够以与定制的基于深度神经网络的质量指标相媲美的准确性预测人的感知距离判断。我们进一步研究了各种神经编码器,并展示了将分析变换作为超出质量判断之外的图像任务的感知损失网络的有效性。我们的实验表明,现成的神经编码器在感知建模方面表现出色,无需额外的 VGG 网络。我们期望这项研究能够成为开发语义感知和编码高效的神经编码器的有价值参考。
Jan, 2024
该研究提出在深度神经网络图像压缩编码产生的图像压缩表示基础上直接进行图像分类、分割等理解任务,验证了这种方法可以大幅降低计算成本并保证相近的识别准确率,并且联合训练压缩网络和分类网络可以提高图像质量、分类精度和分割性能。
Mar, 2018
我们提出了一个端到端的学习图像数据隐藏框架,通过在通用神经压缩器的潜在表示中嵌入和提取秘密信息。通过结合我们提出的消息编码器和解码器以及感知损失函数,我们的方法同时实现了高质量和高比特准确性的图像。与现有技术相比,我们的框架在压缩领域提供了优秀的图像保密性和竞争性的水印鲁棒性,而且嵌入速度加快了 50 倍以上。这些结果展示了组合数据隐藏技术和神经压缩的潜力,并为开发神经压缩技术及其应用提供了新的见解。
Oct, 2023
该研究提出了一种基于神经网络的方法以实现视频压缩,通过隐式的神经网络表示每一帧的像素点来实现基于运动补偿的压缩,并利用学习的整数量化降低比特率。此方法称为隐式像素流(IPF)。
Dec, 2021
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015