六个简单步骤的去噪扩散概率模型
本文使用受非平衡热力学考虑的潜变量模型——扩散概率模型,提出了高质量的图像合成结果。通过根据扩散概率模型和Langevin动力学的去噪得分匹配之间的新颖联系设计加权变分界限进行训练,获得了最佳结果;此外,我们的模型自然地采用渐进式有损解压缩方案,可以解释为自回归解码的一般化。在无条件的CIFAR10数据集上,我们获得了9.46的Inception得分和3.17的最先进的FID得分。在256x256 LSUN上,我们获得了与ProgressiveGAN相似的样本质量。
Jun, 2020
本文描述了一种更高效的迭代隐式概率模型——去噪扩散隐式模型(DDIMs),通过构建一类非马尔科夫扩散过程来加速采样过程,相对于去噪扩散概率模型(DDPMs)可以使采样速度提升10倍至50倍。这种模型可以用于图像生成和语义意义化的图像内插。
Oct, 2020
通过对DDPM模型进行简单修改,可以在保持高质量样本的同时达到具有竞争力的对数似然值,并学习反向扩散过程的方差,从而使用数量级更少的正向传递采样。使用精度和召回率比较DDPM和GAN模型的性能,并证明这些模型的样本质量和似然值可以与模型容量和训练计算平稳地提高。
Feb, 2021
提出了一种动态规划算法,基于ELBO分解原理,可用于任何预先训练的DDPM,通过优化推理时间表来发现最优的离散时间表,从而实现生成速度与样本质量之间的平衡。
Jun, 2021
本研究提出了一种基于“限制后向误差进度表”(RBE进度表)的快速采样方法,使Denoising Diffusion Probabilistic Models(DDPM)拥有更快的采样速度而不需要进一步训练,并在各种基准数据集上实现了高品质图像的生成。
Apr, 2023
本文介绍了一种基于Markovian过程的Upsampling Diffusion Probabilistic Model(UDPM),相较于传统的Denoising Diffusion Probabilistic Models(DDPM),它在降低潜变量维度的同时,仅需7个扩散步骤即可生成$256 imes 256$的高清图像。
May, 2023
本文提出了一种名为DDM的扩散模型,通过将复杂的扩散过程分解为两个相对简单的过程,来提高生成效果和速度,它通过显式转移概率近似图像分布,并通过标准维纳过程控制噪声路径;文章还提出了一个新的DPM训练目标,能够分别预测噪声和图像成分,同时,DDM的逆向去噪公式可以自然地支持少数的生成步骤(不需要基于ODE的加速器),实验结果表明,DDM在更少的函数评估方面优于以前的DPM。
Jun, 2023
该论文介绍了一种名为 Denoising Diffusion Step-aware Models (DDSM) 的新型框架,通过使用一系列根据每个生成步骤重要性进行自适应调整的神经网络,以进化搜索的方式解决了生成过程中存在的整体网络计算的瓶颈问题,有效地提高了扩散模型的效率,并且可以与其他以效率为目标的扩散模型进行无缝集成,从而扩大了计算节约的范围,同时不影响生成质量。
Oct, 2023
本研究提出一种名为SR-DDPM的新方法,通过利用少样本表示学习技术,解决面临有限数据的多任务图像生成挑战,以提高图像质量,并在标准图像数据集上对其进行评估,发现其在FID和SSIM指标上优于无条件和有条件的DDPM。
Nov, 2023
Fast-DDPM是一种简单而有效的方法,可同时提高训练速度、采样速度和生成质量,通过仅使用10个时间步进行训练和采样,相比DDPM,Fast-DDPM能够在医学图像生成任务中优于基于卷积网络和生成对抗网络的当前最先进方法,并将训练时间缩短了5倍,采样时间缩短了100倍。
May, 2024