VDIP-TGV: 基于总变差的变分深度图像先验增强的盲图像去卷积
本研究探索将传统的稀疏型正则化与深度图像先验(DIP)框架相结合,通过使用卷积神经网络(CNN)架构和传统的总变差(TV)正则化方法,证明了在图像去噪和去模糊等传统恢复任务中,引入 TV 会带来相当大的性能提升。
Oct, 2018
该论文提出了一种使用深度生成网络作为先验进行盲图像去卷积(盲去模糊)的新方法,通过使用两个单独的生成模型以及卷积网络,我们提出了一种交替梯度下降方案,可在较大的模糊和噪声下获得有希望的去模糊结果,最终在更加多样化的自然图像数据集上获得了扩展应用。
Feb, 2018
通过分析深度图像先验(DIP)的训练动态,我们揭示了 DIP 基于核函数制度下从欠采样图像测量中恢复信息的重要属性;通过引入参考图像作为网络输入并结合新颖的去噪正则化项,我们提出了一种自引导重建方法,通过同时优化网络权重和输入,消除了训练数据的需求,并在磁共振图像重建方面超过了传统 DIP 和现代监督方法,并且在图像修补中也优于之前基于 DIP 的方案。
Feb, 2024
本文基于近期提出的深度图像先验方法 deep image prior,在图像去卷积中引入 kernel 先验方法,实验结果表明,该方法有助于提高学习无关的图像去卷积的性能,以 PSNR 和视觉效果为标准进行了六个标准测试图像的实验。
Oct, 2019
本文介绍了一种新的变分推断方法 - Variational Denoising Network(VDN),该方法将噪声估计和图像去噪综合到一个贝叶斯框架中。使用由深度神经网络参数化的近似后验条件于输入的图像和噪声方差的潜变量,提供具有显式参数形式的后验分布,可用于自动噪声估计的盲图像去噪。VDN 既具有传统模型驱动方法的优点,也具有数据驱动深度学习方法的效率、灵活性和可解释性,且能够在真实场景下估计并消除复杂的非 i.i.d 噪声。综合实验结果表明,该方法在盲图像去噪方面具有优越性。
Aug, 2019
通过未经训练的深度生成模型提出一种新方法,解决压缩感知恢复问题,具有比以前的方法更好的性能,并且不需要大规模数据集的预训练。同时,结合了关于网络权重的先验知识的新型学习正则技术,减少了重建误差。最后,通过 DIP 优化方法,证明了适度超参数的单层神经网络可以完美拟合任何信号,这一理论结果为提前停止提供了依据。
Jun, 2018
论文介绍一种通过重新定义罚函数的方式将变分贝叶斯方法映射为非标准的极大后验概率问题,并展示这种方法的先进性,解释其成功的原因,并提供了严格的选择最佳图像先验的标准。
May, 2013
通过图像恢复和流形发现两个阶段之间的图卷积网络,我们提出了一种新的方案来利用 DIP 先验进行动态 MRI 重建,名为 “图像先验”(GIP)。实验证明,GIP 在不同的采样轨迹上优于压缩感知方法和无监督方法,并显著减少了与最先进的监督深度学习方法之间的性能差距。此外,GIP 在转移到不同的重建设置时显示出更好的泛化能力,无需任何额外的数据。
Mar, 2024
本文提出一种基于无监督学习的生成扩散先验(GDP)方法,采用预训练的去噪扩散生成模型(DDPM)来有效地建模后验分布,并通过优化去噪过程中的退化模型参数来实现盲图像恢复,进一步采用分层引导和基于块的方法,使 GDP 能够产生任意分辨率的图像。实验结果表明,GDP 在各种图像重建质量和感知质量的基准测试中优于当前的领先无监督方法,在各种任务和各种图像大小的数据集上都表现良好。
Apr, 2023
我们提出了一种名为 Recurrent Gradient Descent Network 的深度优化方法,它使用超参数自由的更新单元和卷积神经网络来生成更新,从而学习了一种隐含的图像先验和通用的更新规则,从而在各种恶劣情况下,提高了图像恢复的质量。
Apr, 2018