基于小波域的图像风格迁移对单张图像超分辨率中的感知失真权衡的有效性
通过使用小波域损失函数训练基于 GAN 的超分辨率模型,本文表明刻画高频细节和伪像之间的区别可以更好地学习,而 RGB 领域或傅立叶空间损失函数则没有这种效果。
Feb, 2024
本文提出了一种新颖的扩散小波(DiWa)方法,用于单图超分辨率(SISR),能够将去噪扩散概率模型(DDPMs)的优点与离散小波变换(DWT)相结合,实现在小波频谱上为超分辨图像产生高频信息,从而在图像空间中生成高质量、详细的重建。在定量指标上,我们在面部(8 倍放大)和一般(4 倍放大)SR 基准测试中均优于当前最先进的扩散 SISR 方法,即 SR3 和 SRDiff,包括 PSNR、SSIM 和 LPIPS 等方面。同时,使用 DWT 使得我们可以使用比比较的模型更少的参数:92M 参数而不是 550M 参数,与 SR3 相比,9.3M 参数而不是 12M 参数,与 SRDiff 相比。此外,我们的方法在经典的一般 SR 数据集上优于其他最先进的生成方法,同时节省推理时间。最后,我们的工作强调了它在各种应用中的潜力。
Apr, 2023
本篇文章提出了一种基于小波变换和白化和彩色变换(WCT$^2$)的样式转换方法,该方法引入了一种理论上正确的修正网络架构,其可能性大大增强了感性质地和两种样式之间的转化,同时保持了结构信息和 VGG 特征空间的统计属性;此外,被提出的模型可以在 4.7 秒内完成 $1024 imes1024$ 分辨率图像的样式转换,且无需后期处理,具有稳定的视频样式转换。
Mar, 2019
本文提出了一种基于多层小波包变换的生成对抗网络(MW-GAN)方法,旨在增强压缩视频的感知质量,其中运动补偿与小波重构网络被用于恢复高频细节,实验结果表明了该方法的优越性。
Aug, 2020
本文提出了一种分阶段新颖的感知图像超分辨率方法,第一阶段集中于最小化点之间误差,第二阶段利用前一阶段提取的特征来追求更好的结构保留,并采用第二阶段提取的细节结构特征来产生更真实的结果,通过多尺度特征融合,提出的方法优于现有方法。
Jul, 2019
本文介绍了一种使用 Charbonnier Loss 函数构建内容损失,并将其与提出的感知损失和对抗性损失相结合的超分辨率感知生成对抗网络 (SRPGAN) 框架,能够更好地重建具有高频细节和清晰边缘的高分辨率图像。与其他现有模型相比,该模型在大多数基准测试中都能取得更高的结构相似性指数 (SSIM) 分数。
Dec, 2017
提出了一种名为 Denoising Induced Super-resolution GAN (DISGAN) 的新方法,在 MRI 超分辨率和去噪任务中使用单个深度学习模型同时解决两个任务,通过引入 3D 离散小波变换作为频域约束,该模型在超分辨率图像生成和去噪方面表现出色。
Aug, 2023
本文提出了一种新的单图像超分辨率 (SISR) 框架,该框架采用了适用于每个区域的最佳目标以生成整体区域的高分辨率输出,并在五个基准测试中取得了优异的结果。
Nov, 2022
本论文提出了一种基于离散小波变换的知识蒸馏方法,用于提高小型生成对抗网络在高频信息生成方面的性能,在保证性能无明显下降的情况下,可将模型体积缩小 7.08 倍、加速 6.80 倍,并研究了鉴别器和生成器之间的关系。
Mar, 2022
提出了一个像素感知的稳定扩散 (PASD) 网络,可实现强大的逼真图像超分辨率和个性化风格化。引入的像素感知交叉注意力模块使扩散模型能够感知像素级的图像局部结构,同时采用降级去除模块提取对降级不敏感的特征,与图像高级信息一起引导扩散过程。通过将基础扩散模型替换为个性化模型,我们的方法可以生成不同风格的图像,无需收集成对的训练数据。实验证明了我们提出方法的有效性。
Aug, 2023