基于扩散模型的高效图像去模糊网络
本研究提出了一种使用 Swin-transformer 模型实现去雨任务的基本模块改进方法,并设计了一个三分支模型,并提出了一个新的数据集 Rain3000 来验证模型的性能和效果,实验结果表明,该方法在公开数据集 Rain100L,Rain100H 和 Rain3000 上具有先进的性能和较快的推理速度。
May, 2021
本文提出了一种基于自适应窗口修剪变换器块的局部运动去模糊视觉变换器(LMD-ViT)方法,该方法通过训练过程中的重构损失和基于注释的模糊掩模的修剪损失来预测模糊置信度,并将其应用于剪枝操作中,以消除局部运动模糊而不失真锐利区域,并显著减少计算量。
Jun, 2023
借助基于 Swin Transformer 结构的 deep learning 方法进行恢复图像分辨率的研究,提出了一种具有先进的稀疏小波框架的三步解卷积框架,与传统的 Firedec 算法相比,我们的方法在恢复分辨率、适应不同噪声特性和计算效率方面展示出巨大优势,对于从地面图像中识别远程宇宙中的结构具有很大的潜力。
May, 2024
本文旨在从网络架构设计和训练数据合成的角度解决当前真实图像去噪的问题,提出了一种新的网络架构设计和噪声退化模型,分别插入到 UNet 框架中从而达到当前最先进的性能水平。
Mar, 2022
我们提出了一种紧凑的编码器 - 解码器 Transformer 模型 DeblurDiNAT,旨在高效地从现实世界的模糊图像中恢复清晰图像。通过采用交替的空洞因子结构和通道调制的自注意力块 (CMSA),以及快速特征传播的径路和乘法前馈网络 (DMFN),并使用轻量级的门控特征融合 (LGFF) 模块,我们在多个图像去模糊数据集上取得了最先进的性能。相比最近的竞争者,我们的方法在参数数量减少 3%-68%、可节省时间的同时,产生了更接近真实图像的去模糊结果。
Mar, 2024
本文介绍了一种基于 Transformer 的方法,用于图像恢复,提出了一种名为 SwinFIR 的扩展方法,旨在提高捕捉全局信息的效率,同时改进了数据增强、预训练、特征集成等高级技术,使模型的性能得到显着提高,并在多个大型基准测试上取得了最先进的性能。
Aug, 2022
本文提出了一种名为 Restoration Transformer 的有效 Transformers 模型,通过几个关键设计,使其能够捕捉长距离像素交互,同时仍适用于大图像,在图像去噪、去模糊和降雨方面达到了最先进的效果。
Nov, 2021
为了提高图像去模糊的速度和精确度,本文提出了一种基于分层积分的扩散模型 (HI-Diff),利用高度压缩的潜空间进行去模糊并结合多尺度的回归方法,从而实现在复杂情景下的更好的泛化效果,实验表明 HI-Diff 在合成数据集和实际场景中均优于当前主流方法。
May, 2023
本文提出了一种简单而有效的视觉状态空间模型(EVSSM)用于图像去模糊,在图像恢复任务中,相比卷积神经网络(CNNs)和视觉 Transformer(ViTs),EVSSM 相对于其它方法在基准数据集和真实捕捉的图像上表现出色。
May, 2024