Adv-KD: 教师对抗知识蒸馏以加速扩散采样
本篇论文介绍了一种新的技术,将多步去噪过程压缩为单步的知识蒸馏方法,从而提高图像生成的采样速度,且不需要对抗训练,通过在CIFAR-10、CelebA数据集上的实验表明,我们的去噪学生Denoising Student能够生成与GANs相当的高质量样本,并可扩展到更高像素的图像生成任务。
Jan, 2021
通过对DDPM模型进行简单修改,可以在保持高质量样本的同时达到具有竞争力的对数似然值,并学习反向扩散过程的方差,从而使用数量级更少的正向传递采样。使用精度和召回率比较DDPM和GAN模型的性能,并证明这些模型的样本质量和似然值可以与模型容量和训练计算平稳地提高。
Feb, 2021
本文提出了一种基于多模式条件GAN,使其具有高样本质量、高模式覆盖和快速采样三个特性的去噪扩散生成对抗网络,同时在 CIFAR-10 数据集上比原扩散模型快 2000 倍,并且是第一种将采样成本降至足够低以便于应用于实际应用的模型。
Dec, 2021
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022
本文介绍了利用预训练扩散模型在数据自由的情况下对其他生成模型进行学习转移的Diff-Instruct框架,其中包括深入探讨的新的KL发散-Integral Kullback-Leibler(IKL)分散演化过程以及与已有方法如DreamFusion和生成对抗性训练的非平凡关系,并在两种情况下进行了实验以展示Diff-Instruct的效力和普适性。
May, 2023
通过匹配隐式和显式因素,我们提出了一种新的方法,以解决生成模型中的采样难题,该方法利用隐式模型匹配噪声数据的边缘分布和前向扩散的显式条件分布,以有效地匹配联合降噪分布,并获得与扩散模型相当的生成性能和比采样步骤少的模型相比更好的结果。
Jun, 2023
本文提出了一种基于DPMs的迁移学习方法TAN,通过相似性引导训练和对抗性噪声选择两种策略,解决了数据有限的问题,实验表明相比现有的基于GAN和DDPM的方法,我们的方法在图像质量和多样性方面表现出色且高效。
Aug, 2023
Adversarial Diffusion Distillation (ADD) is a new training approach that efficiently samples large-scale image diffusion models in 1-4 steps, outperforming existing few-step methods and reaching state-of-the-art performance in only four steps, enabling real-time image synthesis.
Nov, 2023
该论文介绍了一种使用预训练自编码器将图像压缩为紧凑的潜在空间的潜隐去噪扩散生成对抗网络(LDDGAN),以显著提高推断速度和图像质量,并提出了一种加权学习策略来增强多样性和图像质量。该模型在CIFAR-10,CelebA-HQ和LSUN-Church数据集上的实验结果证明了其在扩散模型中达到了最先进的运行速度。与其前身DiffusionGAN和Wavelet Diffusion相比,我们的模型在所有评估指标上都表现出了显著的改进。
Jun, 2024