IICNet: 逆向图像转化通用框架
本文提出了一种基于可逆神经网络(INNs)的 Invertible Encoding Network 方法来构建更好的图像空间和潜在特征空间之间的转换,并在 Kodak、CLIC 和 Tecnick 数据集上证明了该方法在高分辨率图像方面优于现有的学习图像压缩方法和压缩标准(包括 VVC (VTM 12.1))的实验结果。
Aug, 2021
本文提出了一种基于 Transformer 的图像压缩方法(TIC),使用深度神经网络来分析和压缩输入图像,与最先进的基于卷积神经网络和基于人工编码规则压缩算法相比,该方法具有更少的参数个数,达到了同等性能。
Nov, 2021
通过 i-RevNet 网络的可逆性证明了深度卷积网络并不需要通过逐步丢弃输入信息来学习代表信息以获得泛化能力,并通过线性插值对模型学习到的信息进行了解释。
Feb, 2018
通过可逆神经网络,我们提出了 INN-RSIC 方法,用于解码远程感应图像并实现高感知质量,在低比特率下尤为重要。我们采用现有图像压缩算法捕捉压缩失真,并通过 INN 将其编码为一组高斯分布的潜在变量,使解码图像中的压缩失真与真实图像无关。因此,通过利用 INN 的逆映射,我们可以将解码图像以及一组随机重采样的高斯分布变量输入到逆网络中,有效生成感知质量更好的增强图像。我们通过引入量化模块(QM)来缓解格式转换的影响,从而提高框架的泛化能力和增强图像的感知质量。广泛的实验表明,我们的 INN-RSIC 在感知质量方面明显优于现有的传统和基于深度学习的图像压缩方法。
May, 2024
介绍了一种新的结构,称为条件可逆神经网络(cINN),并将其用于解决自然图像的多样化图像到图像的转化任务。cINN 结合了纯生成 INN 模型和一个无限制的前馈网络,有效地将调节图像预处理为最大信息特征。通过最大似然优化,稳定地联合优化 cINN 的所有参数。利用双向 cINN 结构,进一步探索和操作潜在空间的新兴属性,例如以直观的方式更改图像风格。
May, 2021
该研究提出了一种改进的变压器 (Transformers) 自回归先验模型及 ConvNeXt-based 预 / 后处理器,并将其应用于图像压缩,提高了压缩效率和解码复杂度的权衡。
Jul, 2023
在这项研究中,我们提出了 CommIN,它将从退化重构中恢复高质量源图像视为一个逆问题,并通过结合可逆神经网络(INN)和扩散模型来实现更好的感知质量。通过实验证明,在极端条件下,我们的 CommIN 在感知质量上显著提高,相比 DeepJSCC 在这方面优于其他逆问题方法。
Oct, 2023
该研究提出了一种基于三种新技术的统一框架,包括通道关注模块、高斯混合模型和解码器侧增强模块,命名为 EDIC,可用于基于学习的图像压缩,并说明该方法优于当前所有先进的图像压缩方法,同时将解码速度提高了超过 150 倍。
Feb, 2020
通过引入参数化和可逆的线性变换,我们的研究提出了一种方法来改善针对屏幕内容图像的学习图像编解码器(LICs)的编码效率,并在不改变基线编解码器操作流的情况下设计了两个神经网络作为预处理器和后处理器,从而帮助增加编码效率并减少编码的伪影。我们的端到端训练方法在屏幕内容图像压缩中相比基线的 LICs 实现了高达 10% 的比特率节省,同时只引入了额外的 1% 参数。
Feb, 2024
图像编码技术旨在降低图像表示所需的比特率,同时最大程度地减少机器视觉分析准确性的下降。本研究提出了一种基于对抗训练的有效解码器微调方案,以显著提高图像编码技术的视觉质量,同时保持机器分析准确性,无需在推理阶段增加额外的比特率或参数。实验结果表明,在忽略任务性能分数相对变化 - 1.6% 的情况下,完全消除了棋盘格伪影。对于一些可容忍某些伪影的情况,例如机器消费是主要目标的情况,该技术可以提高像素保真度和特征保真度分数,同时不影响任务性能。
Jan, 2024