使用扩散模型进行未见图像合成
本文提出了一种 DomainStudio 方法,用于将在大规模源数据集上预先训练的 DDPMs 调整到目标域,以在目标域中生成高质量且具有多样性的样本,从而实现无条件少样本图像生成。
Jun, 2023
使用潜在扩散模型 (LDM) 实现了对高分辨率 3D 医学数据的强健异常检测,与使用潜在转换模型 (LTMs) 的方法相比,LDM 方法表现更好、对潜在表示更不敏感、内存缩放更合理以及生成更好的空间异常图。
Jul, 2023
Denoising Diffusion Probabilistic Models (DDPMs) can effectively generate images in unexplored regions of the data distribution by composing latent factors learned from separate subsets, demonstrated through zero-shot interpolation for attributes like smiling faces.
May, 2024
本文介绍了一种基于 Markovian 过程的 Upsampling Diffusion Probabilistic Model(UDPM),相较于传统的 Denoising Diffusion Probabilistic Models(DDPM),它在降低潜变量维度的同时,仅需 7 个扩散步骤即可生成 $256 imes 256$ 的高清图像。
May, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021
提出一种新颖的无需对抗训练的图像分类方法,该方法使用基于去噪扩散概率模型的单张图像转换方法。我们的方法是通过最小化以另一个域为条件的去噪得分匹配目标来训练生成模型以推断图像的联合分布。我们同时更新域翻译模型,并通过基于 Langevin 动力学的去噪马尔科夫链蒙特卡罗方法来生成目标域图像。该方法在几个公共数据集上实现了最先进的 Frechet Inception Distance(FID)性能,包括彩色和多光谱影像,并明显优于当前的对抗图像转换方法。
Apr, 2021
本篇论文提出了一种基于 DDPM 的新型框架,用于语义图像合成,通过条件扩散模型来处理语义布局与噪声图像,而引入分类器自由的引导采样策略来进一步提高了生成质量和语义可解释性。
Jun, 2022
该研究提出了一种将深度度量学习和扩散模型结合起来的新方法,用于通过合成数据对于分布外(OOD)进行检测,并证明基于度量学习的损失函数优于 softmax,在生成的 OOD 数据上的训练使得模型在传统 OOD 检测指标上表现优于强基线模型。
May, 2024
本文描述了一种更高效的迭代隐式概率模型 —— 去噪扩散隐式模型(DDIMs),通过构建一类非马尔科夫扩散过程来加速采样过程,相对于去噪扩散概率模型(DDPMs)可以使采样速度提升 10 倍至 50 倍。这种模型可以用于图像生成和语义意义化的图像内插。
Oct, 2020
通过学习逐渐将数据分布扩散为高斯噪声的过程,并以随机噪声进行迭代去噪处理,去噪扩散概率模型(DDPMs)在各种图像生成任务中取得了令人印象深刻的性能。本文提出了部分扩散模型(PartDiff),通过将图像扩散到中间潜在状态而不是纯随机噪声来生成新数据,并采用近似于低分辨率图像扩散的潜在状态来逼近中间潜在状态。实验证明,与纯扩散基础的超分辨率方法相比,部分扩散模型可以显著减少去噪步骤的数量而不损失生成的质量。
Jul, 2023