通过超分辨率进行无损图像压缩
本文提出了一种新的有压缩感知的视频超分辨率模型,旨在恢复高分辨率内容而不引入压缩引起的伪影。该模型包括三个模块:双向循环变形、保留细节的流估计和拉普拉斯增强,针对包含压缩的视频的性质设计实现。经过大量实验,表明该方法不仅能从常用基准数据集中恢复未压缩帧上的高分辨率内容,而且基于许多数量化指标在超分辨压缩视频方面也达到了最先进的性能。
May, 2021
该论文提出了一个像素递归超分辨率模型,可综合提高图像的分辨率并增强其真实感;该模型能够表示多模态条件分布,使用 PixelCNN 结构定义自然图像的先验知识并联合优化条件卷积网络,保持了照片的真实感。
Feb, 2017
我们提出了第一个实用的学习无损图像压缩系统 L3C,它在压缩方面优于流行的人工编码器 PNG、WebP 和 JPEG 2000。L3C 的核心是一种可完全并行化的分层自适应熵编码概率模型,该模型针对压缩任务进行了端到端的优化。与最近的自回归离散概率模型(如 PixelCNN)相比,我们的方法将图像分布与学习的辅助表示一起建模,而不是仅在 RGB 空间中建模图像分布,并且只需要三个前向传递来预测所有像素的概率,而不是为每个像素分别预测一个。此外,我们发现学习辅助表示至关重要,而且显著优于预定义的辅助表示,如 RGB 金字塔。
Nov, 2018
文章提出了一个基于稀疏表示和压缩感知的超分辨率框架,用于在侦察和监视应用中对可扩展视频进行处理,实验结果表明,该框架具有更高的压缩率和更高的视频质量,是一种有效的压缩率更高、图像质量更优的视频处理算法。
Jul, 2017
本文提出了一种基于深度卷积神经网络的端到端训练模型,用于对压缩图像进行超分辨率重建和压缩伪影去除,实验证明该模型在 JPEG 压缩图像上表现出优异的超分辨率性能和比 JPEG 更好的速率 - 失真性能。
Sep, 2017
本论文提出了一种基于循环卷积神经网络的有损图像压缩方法,通过像素权重损失、改进循环神经网络的结构以及自适应位分配算法,成功取得了多项实验成果优于 BPG、WebP、JPEG2000 和 JPEG 等标准方式。
Mar, 2017
本研究使用三阶段的工作流对深度超分辨率模型进行压缩,通过教师 - 学生知识蒸馏和新设计的蒸馏损失函数来保持恢复性能,以实现大幅降低模型大小和浮点运算量,同时保持与原始模型和其他常用超分辨率方法相媲美的竞争性超分辨率性能。
Dec, 2023
通过神经网络构建一套高效率图像压缩方法,新架构由编码器、解码器、二值化器和熵编码神经网络组成,可变压缩比率,能在感知度量上对 JPEG 进行改善,并取得了最好的表现。
Aug, 2016
该论文提出了一种针对超分辨率的新度量标准 CLIPScore,并使用该标准在多个数据集上评估了四种标准方法,发现生成对抗网络在语义准确性上优于传统的 L2 损失模型和现代扩散模型,同时将 CLIPScore 作为辅助损失可加快 GANs 的训练速度 18 倍,并改进输出结果,从而在世界各地的多样地理环境中得到有效的模型。
Nov, 2023
本文提出了一种基于深度学习的科学误差边界有损压缩器 SRN-SZ,利用超分辨率神经网络实现分层数据网格扩展模式,相较其他压缩器在相同误差边界下压缩率提高了 75%,在相同峰值信噪比下压缩率提高了 80%。
Sep, 2023