该论文提出了新的双边去噪扩散模型(BDDMs)来提高样本生成的质量和速度,其可以更加高效和简单地训练,以及进一步优化先前训练好的模型。
Aug, 2021
通过对 DDPM 模型进行简单修改,可以在保持高质量样本的同时达到具有竞争力的对数似然值,并学习反向扩散过程的方差,从而使用数量级更少的正向传递采样。使用精度和召回率比较 DDPM 和 GAN 模型的性能,并证明这些模型的样本质量和似然值可以与模型容量和训练计算平稳地提高。
Feb, 2021
提出了一种动态规划算法,基于 ELBO 分解原理,可用于任何预先训练的 DDPM,通过优化推理时间表来发现最优的离散时间表,从而实现生成速度与样本质量之间的平衡。
Jun, 2021
通过匹配隐式和显式因素,我们提出了一种新的方法,以解决生成模型中的采样难题,该方法利用隐式模型匹配噪声数据的边缘分布和前向扩散的显式条件分布,以有效地匹配联合降噪分布,并获得与扩散模型相当的生成性能和比采样步骤少的模型相比更好的结果。
Jun, 2023
本文介绍了一种新的基于 Denoising Diffusion Generative Adversarial Networks 的文本到语音模型 (DiffGAN-TTS),该模型通过多说话人 TTS 实验表明,仅需 4 个去噪步骤即可生成高保真度语音样本,并提出了一个两阶段训练方案,可在仅 1 个去噪步骤下实现高质量的语音合成性能。
Jan, 2022
Fast-DDPM 是一种简单而有效的方法,可同时提高训练速度、采样速度和生成质量,通过仅使用 10 个时间步进行训练和采样,相比 DDPM,Fast-DDPM 能够在医学图像生成任务中优于基于卷积网络和生成对抗网络的当前最先进方法,并将训练时间缩短了 5 倍,采样时间缩短了 100 倍。
May, 2024
通过在扩散模型中引入两个辨别器(扩散辨别器和频谱图辨别器),我们提出了一种音频合成模型,其在各项评估指标中均优于 FastSpeech2 和 DiffGAN-TTS,并通过结构相似性指数、梅尔倒谱失真、F0 均方根误差、短时客观可懂性、语音质量感知评估和主观平均意见得分等客观和主观度量对该模型进行了评估。
Aug, 2023
本文描述了一种更高效的迭代隐式概率模型 —— 去噪扩散隐式模型(DDIMs),通过构建一类非马尔科夫扩散过程来加速采样过程,相对于去噪扩散概率模型(DDPMs)可以使采样速度提升 10 倍至 50 倍。这种模型可以用于图像生成和语义意义化的图像内插。
Oct, 2020
本文提出了一种名为 DDM 的扩散模型,通过将复杂的扩散过程分解为两个相对简单的过程,来提高生成效果和速度,它通过显式转移概率近似图像分布,并通过标准维纳过程控制噪声路径;文章还提出了一个新的 DPM 训练目标,能够分别预测噪声和图像成分,同时,DDM 的逆向去噪公式可以自然地支持少数的生成步骤(不需要基于 ODE 的加速器),实验结果表明,DDM 在更少的函数评估方面优于以前的 DPM。
本研究提出了一种基于 “限制后向误差进度表”(RBE 进度表)的快速采样方法,使 Denoising Diffusion Probabilistic Models(DDPM)拥有更快的采样速度而不需要进一步训练,并在各种基准数据集上实现了高品质图像的生成。
Apr, 2023