ANFIC:使用增广正则化流进行图像压缩
本文提出了一种基于条件增强型正则化流(CANF)的端到端学习视频压缩系统 CANF-VC,该系统使用了深度生成模型等创新技术,实现了条件帧间编码的视频生成模型及运动编码,实验结果表明 CANF-VC 比现有的最先进方法更优秀。
Jul, 2022
本文旨在提出一种创新的概念,将分层潜空间应用于增强式归一化流,建立可逆的潜变量模型,以解决许多学习型图像压缩方法的非可逆性问题。经过实验表明,本模型相较于单尺度模型,平均压缩率提高了 7% 以上。
May, 2023
本文提出了一种基于自动编码器的新型非局部注意力优化深度图像压缩(NLAIC)框架,该框架将非局部操作嵌入编码器和解码器中,以捕捉局部和全局关联,并应用注意机制生成用于加权图像和超先验特征的掩码,从而根据其重要性隐含地适应不同特征的比特分配。此外,超先验和潜在特征的空间 - 通道邻居被用来改进熵编码。该模型在 Kodak 数据集上的性能优于现有的图像压缩方法,包括基于学习的(例如 Balle2019,Balle2018)和传统的(例如 BPG,JPEG2000,JPEG)图像压缩方法,无论是 PSNR 还是 MS-SSIM 畸变度量。
Apr, 2019
本文提出了一种新型正则化流架构 —— 逆自回归流,它是一种基于自回归神经网络的可逆转换链。实验结果表明,逆自回归流显著改善了高维空间中对角高斯近似后验的变分推断,同时也证明了,结合逆自回归流的新型变分自编码器,在自然图像的对数似然度方面,与神经自回归模型相当,同时合成速度显著更快。
Jun, 2016
本文介绍了一种使用正则化流技术的深度图像压缩方法,能够在保证低比特率的情况下实现接近无损的质量,相比传统图像压缩方法有更大范围的质量水平,并能够在多次编码后仍能保持一致的质量结果。此为首次探索正则化流用于有损图像压缩的研究成果。
Aug, 2020
本文提出了一种基于 Transformer 的图像压缩方法(TIC),使用深度神经网络来分析和压缩输入图像,与最先进的基于卷积神经网络和基于人工编码规则压缩算法相比,该方法具有更少的参数个数,达到了同等性能。
Nov, 2021
本文提出了一种基于深度神经网络(DNN)的 VAE 结构的新型非局部注意力优化和改进的上下文建模图像压缩(NLAIC)算法,采用了非局部网络操作嵌入到编码器和解码器中,通过采用关注机制生成掩码来让特征自适应量化,实现了改进条件熵建模潜在特征,可在实际应用中增加速度、降低内存消耗和减轻实现复杂度的额外增强措施,并在 Kodak 和 CLIC 数据集上取得了与现有方法相比的最新压缩功率效率。
Oct, 2019
本文提出了一种基于可逆神经网络(INNs)的 Invertible Encoding Network 方法来构建更好的图像空间和潜在特征空间之间的转换,并在 Kodak、CLIC 和 Tecnick 数据集上证明了该方法在高分辨率图像方面优于现有的学习图像压缩方法和压缩标准(包括 VVC (VTM 12.1))的实验结果。
Aug, 2021
本文提出了 SurVAE Flows 作为一个模块化的框架来组合深度学习中的生成模型 Normalizing flows 和 Variational autoencoders,通过使用双射变换来建模密度和可逆变换,桥接了两种模型之间的差距,同时介绍了一些通用操作。
Jul, 2020