AICT:自适应图像压缩变压器
该研究提出了一种改进的变压器 (Transformers) 自回归先验模型及 ConvNeXt-based 预 / 后处理器,并将其应用于图像压缩,提高了压缩效率和解码复杂度的权衡。
Jul, 2023
本文提出了一种基于 Transformer 的图像压缩方法(TIC),使用深度神经网络来分析和压缩输入图像,与最先进的基于卷积神经网络和基于人工编码规则压缩算法相比,该方法具有更少的参数个数,达到了同等性能。
Nov, 2021
本文提出了一种高效的并行 Transformer-CNN 混合块,用于将 CNN 的本地建模能力和 Transformer 的非本地建模能力相结合,以提高图像压缩模型的整体架构,并在熵估计模型和注意力模块方面取得了最新进展,实验结果表明,该方法在三个不同分辨率的数据集上均实现了具有创新性的率失真表现.
Mar, 2023
本文介紹了一種基於 ConvNeXt 的轉換編碼框架 ConvNeXt-ChARM,並引入了計算效率高的通道自回歸先驗,以提高圖像質量,並通過對四個廣泛使用的數據集進行實驗結果表明其效果優異。
Jul, 2023
本文提出了一种基于 Transformer 的端到端图像压缩和分析模型,实现云端图像分类应用,并通过两步训练策略解决了率失真精度优化问题。实验结果表明,该模型在图像压缩和分类任务中均具有有效性。
Dec, 2021
提出了一种新的基于动态深度卷积的转换模块,称为 Self-Conditioned Adaptive Transform with Large-Scale Receptive Fields for Learned Image Compression (SLIC),它在图像压缩中取得了令人瞩目的性能表现,可将可压缩性降低 6.35%。
Apr, 2023
提出了基于 Transformer 的非线性变换和包含两个不同超先验的熵模型,通过有效地捕获输入图像的局部和全局信息以及利用远距关系提取长程信息,能够在速率 - 失真性能方面表现优于现有的方法。
Sep, 2023
学习图像压缩 (LIC) 已成为近年来在图像存储和传输方面的有效解决方案,然而,现有的 LIC 方法存在潜在的表示冗余问题,限制了其对各向异性频率成分和方向细节的捕捉。为了克服这些挑战,我们提出了一种新颖的频率感知变换器 (FAT) 模块,首次实现了对 LIC 的多尺度方向分析。FAT 模块由频率分解窗口注意力 (FDWA) 模块组成,用于捕捉自然图像的多尺度和方向频率成分。此外,我们引入了频率调制前馈网络 (FMFFN),以自适应调制不同频率成分,从而改善了速率失真性能。此外,我们还提出了基于变换器的通道级自回归 (T-CA) 模型,有效地利用了通道依赖性。实验证明,与现有的 LIC 方法相比,我们的方法在速率失真性能上达到了最先进的水平,并在 Kodak、Tecnick 和 CLIC 数据集上相对于最新的标准编解码器 VTM-12.1 提高了 14.5%、15.1% 和 13.0% 的 BD - 率。
Oct, 2023
本文提出了一种基于可逆神经网络(INNs)的 Invertible Encoding Network 方法来构建更好的图像空间和潜在特征空间之间的转换,并在 Kodak、CLIC 和 Tecnick 数据集上证明了该方法在高分辨率图像方面优于现有的学习图像压缩方法和压缩标准(包括 VVC (VTM 12.1))的实验结果。
Aug, 2021
本文通过引入 Invertible Activation Transformation (IAT) 模块来解决图片在多次压缩/解压缩操作下质量下降的问题,实现了更好的维护图片保真度的同时,拥有细粒度的压缩率控制并取得了和目前最好的类似学习方法比较时具有可比较的的速率失真性能。
Sep, 2022