image restoration models are typically trained with a pixel-wise distance
loss defined over the rgb color representation space, which is well known to be
a source of blurry and unrealistic textures in the restore
提出了一种基于 latent space 学习的,对 raw images 进行压缩的新框架,包括了对于图像的不对称和混合空间特征分辨率设计、context model 的新设计和 sRGB 导向的自适应量化策略设计,并且提供了一种新的单模型可实现不同比特率的策略。实验结果表明,该方法在较小的 metadata size 情况下能够获得更好的重构质量。
本文提出一种基于傅里叶域的感知质量强化的超分辨率图像重建方法,利用新型 Loss Function 提升低复杂度生成器网络的表现,以及在空间域和傅里叶域均应用不同 Loss Function 以提取不同信息。最终得出与 RankSRGAN 和 SRFlow 等最先进感知超分辨率方法相当的结果,并且比这些方法快 2.4 倍至 48 倍不等。