UGPNet:通用图像修复生成先验
该论文提出了一种基于 PGD 算法的 Deep Generalized Unfolding Network(DGUNet)进行图像修复,通过在梯度下降步骤中集成梯度估计策略和设计跨不同 PGD 迭代中 Proximal mapping 的中间信息通路,实现对复杂和现实世界图像的修复,同时保持了透明度和可解释性。实验结果表明,该方法在各种图像修复任务中的性能、可解释性和通用性均优于现有方法。
Apr, 2022
本文提出了一套联合预测滤波和生成网络的混合框架 JpgNet,通过结合预测滤波网络和生成网络,同时保留局部结构和整体理解,并提出了一种不确定性感知融合网络,可用于图像修复领域。在 Dunhuang、Places2 和 CelebA 等数据集上的实验表明,这项技术可以显著改善三种最先进的生成模型,同时时间成本略有增加。
Jul, 2021
该研究提出了一种基于生成模型和对抗学习的图像恢复算法,并通过物理模型约束学习提高了生成对抗网络的图像生成质量,具有在多种低级视觉问题中应用的广泛适用性。
Aug, 2018
本文提出了一种基于 GAN 的图像去噪、增强方法,引入了 3 个阶段渐进式潜空间扩展和保守优化器,使该方法对于多种不同水平的退化具有鲁棒性,效果比其他基于 StyleGAN 和扩散方法的方法更好。
Feb, 2023
论文介绍如何利用图像处理技术作为预处理步骤提高自动视觉识别的性能,并提出一种名为 UG^2 的新基准数据集,其中包含三个困难的实景场景,用于评估图像恢复和增强技术对深度学习目标分类的影响。实验结果表明,该数据集是未来算法创新的有用工具。
Oct, 2017
本研究针对深度生成模型如变分自编码器和生成对抗网络在高复杂度图片样本表现的不足,提出一种图像自适应的修复方案,增强复原的表达能力。在图像超分辨率和压缩感知方面进行了实证表明其优势。
Jun, 2019
该论文介绍了使用全局 - 局部渐进式生成网络(GLSGN)来恢复超高分辨率图像,该模型利用四个恢复路径(三个局部路径和一个全局路径)进行恢复,其中局部路径聚焦于在局部但高分辨率的图像路径上进行细粒度的图像恢复,而全局路径则在缩小但完整的图像上大范围地进行图像恢复,以提供包括语义和噪声模式在内的全局视图的线索。同时该论文还介绍了第一个用于超高分辨率去反射和去雨纹的数据集,并展示了 GLSGN 在三个典型的背景恢复任务中的卓越性能。
Jul, 2022
本文提出了一种可控 Unet 生成对抗网络 (CUGAN) 来生成高频纹理,该网络包括基网络和条件网络两个模块,通过调整不同尺度的不同特征的权重实现交互控制还原级别,在鉴别器中对中间特征进行自适应调制,并通过简单的过渡方法提供 GAN 和 MSE 效果之间的平滑转换,适用于图像修复操作。
May, 2021
本文提出了一种基于 GAN 的无监督图像增强模型 (UEGAN),利用调制机制和质量损失函数增强图像的视觉质量,消除专业照片编辑造成的风格化问题。我们的质量和定量实验验证了我们的模型的有效性。
Dec, 2020
本文提出一种基于无监督学习的生成扩散先验(GDP)方法,采用预训练的去噪扩散生成模型(DDPM)来有效地建模后验分布,并通过优化去噪过程中的退化模型参数来实现盲图像恢复,进一步采用分层引导和基于块的方法,使 GDP 能够产生任意分辨率的图像。实验结果表明,GDP 在各种图像重建质量和感知质量的基准测试中优于当前的领先无监督方法,在各种任务和各种图像大小的数据集上都表现良好。
Apr, 2023