Previous methods decompose blind super resolution (SR) problem into two
sequential steps: \textit{i}) estimating blur kernel from given low-resolution
(LR) image and \textit{ii}) restoring SR image based on estimated kernel. This
two-step solution involves two independently trained mod
现在,基于深度学习的方法在理想的超分辨率(SR)数据集上展现出了令人印象深刻的性能,但在应用于具有不可预测模糊核的现实 SR 重建任务时,大多数这些方法会显著降低性能。为了解决这个问题,提出了盲 SR 方法来改善随机模糊核造成的视觉结果,这同样导致理想低分辨率图像的重建效果不理想。本文提出了一个用于理想和盲 SR 任务的双赢框架,命名为 S2R,包括一个轻量级的基于 transformer 的 SR 模型(S2R transformer)和一种新颖的自上而下的训练策略,可以在理想和随机模糊条件下实现出色的视觉结果。在算法层面上,S2R transformer 巧妙地组合了一些高效且轻量级的块,以增强提取特征的表示能力,并且具有相对较少的参数。对于训练策略,首先进行粗粒度的学习过程,通过大规模外部数据集的帮助来改进网络的泛化能力,然后,开发了一种快速微调过程,通过挖掘图像的内部特征将预训练模型转移到现实 SR 任务中。实验结果表明,提出的 S2R 在理想的 SR 条件下仅使用 578K 参数就优于其他单图像 SR 模型。同时,在盲模糊条件下,它可以实现比常规盲 SR 模型更好的视觉效果,仅使用 10 次渐变更新就提高了收敛速度 300 倍,显著加速了在现实世界情况下的迁移学习过程。