可逆扩散模型用于压缩感知
本文提出了一种隐式扩散模型 (IDM),采用神经表示和去噪扩散模型,实现了高保真持续图像超分辨率,其缩放因子在最终输出中调节低分辨率信息和生成的特征的占比,它使模型适应连续分辨率需求,实验验证了 IDM 的有效性和优越表现。
Mar, 2023
在这项研究中,我们提出了 CommIN,它将从退化重构中恢复高质量源图像视为一个逆问题,并通过结合可逆神经网络(INN)和扩散模型来实现更好的感知质量。通过实验证明,在极端条件下,我们的 CommIN 在感知质量上显著提高,相比 DeepJSCC 在这方面优于其他逆问题方法。
Oct, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021
本文介绍了直接去噪扩散模型(DDDM):一种生成逼真图像的简单且通用方法,具有少步采样的特点,同时保留了多步采样以获得更好的性能。DDDM 不需要精心设计的采样器或预训练的蒸馏模型,而是以自身的先前训练迭代生成的估计目标为条件进行扩散模型的训练,通过考虑前一时间步生成的样本来引导迭代生成过程。我们还提出了 Pseudo-LPIPS,一种对各种超参数值更鲁棒的新型度量损失。尽管简单,该方法在基准数据集上表现出强大的性能。我们的模型在 CIFAR-10 上分别以一步采样和两步采样的 FID 分数为 2.57 和 2.33,超越了 GAN 和蒸馏基模型获得的分数。通过将采样扩展到 1000 步,我们将 FID 分数进一步降低到 1.79,与文献中的最先进方法相一致。在 ImageNet 64x64 上,我们的方法与主要模型相当。
May, 2024
使用生成对抗网络 (GAN) 和去噪扩散隐式模型 (DDIM) 的加速迭代扩散反演方法 (AIDI) 在图像编辑任务中取得了更高的重构准确性和更好的稳健性。
Sep, 2023
最近,文本引导的扩散模型取得了强大的图像处理能力。然而,将这些方法应用于真实图像需要将图像反转到预训练的扩散模型的领域中。实现准确的反转仍然是一个挑战,特别是对于训练用于生成具有少量降噪步骤的图像的最新模型。在这项工作中,我们引入了一种具有高质量操作比的反转方法,提高重建准确性而不增加操作次数。我们的方法建立在扩散采样过程的反转基础之上,采用在每个反转采样步骤中进行迭代降噪的机制。该机制通过迭代应用预训练的扩散模型,并对这些预测进行平均,从而改善了沿前向扩散轨迹预测点的逼近性。我们使用各种采样算法和模型对我们的 RenNoise 技术的性能进行评估,并进行全面的评估和比较,展示了其在准确性和速度方面的有效性。此外,我们通过在真实图像上展示基于文本的图像编辑,证实了我们的方法的可编辑性。
Mar, 2024
本研究提出了一种名为 ACDMSR(accelerated conditional diffusion model for image super-resolution)的新型扩散模型,通过预先训练的 SR 模型提供给定 LR 图像的条件图像来实现优秀的超分辨率结果,从而在可实践的场景中生成更具视觉逼真感的低分辨率图像。
Jul, 2023
本文提出了一种名为 DDNM 的新颖的零射击框架,用于任意线性图像修复问题,包括但不限于图像超分辨率、上色、修补、压缩感知和去模糊。DDNM 只需要一个预先训练好的 diffusion 模型作为生成先验,而不需要任何额外的训练或网络修改。我们在几个 IR 任务上的实验表明,DDNM 优于其他最先进的零射击 IR 方法。
Dec, 2022
本文提出了一种基于先前针对噪声扩散的生成模型的方法 DDPM,用于解决各种图像恢复问题,包括超分辨率,去模糊,填补和上色,相比于现有的非监督方法,DDRM 在重构质量,感知质量和运行时均表现出更好的性能。
Jan, 2022
该论文介绍了一种名为 Denoising Diffusion Step-aware Models (DDSM) 的新型框架,通过使用一系列根据每个生成步骤重要性进行自适应调整的神经网络,以进化搜索的方式解决了生成过程中存在的整体网络计算的瓶颈问题,有效地提高了扩散模型的效率,并且可以与其他以效率为目标的扩散模型进行无缝集成,从而扩大了计算节约的范围,同时不影响生成质量。
Oct, 2023