SFDDM: 单折蒸馏扩散模型
扩散模型的实例教学方法和分布教学方法在图像生成模型方面取得了显著的研究成果,提出的分布教学方法在减少训练图像数量的同时取得了最先进的结果,提高了对高效图像生成模型的理解并为各种应用提供了可扩展的框架。
May, 2024
通过引入 DMD2 技术,将 Distribution Matching Distillation 应用于一步图像生成,通过 GAN loss 以及多步采样等技巧的改进,在降低推理成本的情况下,取得了在图像生成任务中新的最优结果。
May, 2024
通过分析偏差 - 方差分解和实验观察,我们提出了一种基于空间拟合误差减少的蒸馏模型(SFERD),该模型利用教师模型的注意力引导和设计的语义梯度预测器来降低学生模型的拟合误差,从而在少量函数评价中实现高质量的样本生成,并在 CIFAR-10 上取得了 5.31 的 FID 和 ImageNet 64×64 上取得了 9.39 的 FID,超过了现有的扩散方法。我们的研究突出了模型的本质去噪能力,为扩散蒸馏提供了新的视角。
Nov, 2023
通过集成随机微分方程求解器到一致性蒸馏中,提出并验证了 Stochastic Consistency Distillation (SCott) 方法,该方法能够加快文本到图像生成的过程,并且在稳定扩散 - V1.5 模型上,表现优于其他模型在 MSCOCO-2017 5K 数据集上的生成结果。
Mar, 2024
我们提出了自我蒸馏 Fine-Tuning 扩散模型(SDFT),通过利用在大型源数据集上预训练的扩散模型的多样特征,从源模型中提取出更一般的特征(形状、颜色等),少量的领域特定特征(纹理、细节等),以在目标数据集上进行知识传递且不干扰训练过程,以引导有限数据集上扩散模型的生成能力,从而增强了模型的表达能力,并在各种下游任务中显示出更好的生成能力。
Nov, 2023
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022
通过 EM Distillation 方法,将扩散模型精简至一步生成器模型,以最小损失的感知质量学习最大似然,提高了在 ImageNet-64 和 ImageNet-128 上的 FID 评分,并优于先前在文本到图像扩散模型提取方面的工作。
May, 2024
Adversarial Diffusion Distillation (ADD) is a new training approach that efficiently samples large-scale image diffusion models in 1-4 steps, outperforming existing few-step methods and reaching state-of-the-art performance in only four steps, enabling real-time image synthesis.
Nov, 2023
本文介绍了直接去噪扩散模型(DDDM):一种生成逼真图像的简单且通用方法,具有少步采样的特点,同时保留了多步采样以获得更好的性能。DDDM 不需要精心设计的采样器或预训练的蒸馏模型,而是以自身的先前训练迭代生成的估计目标为条件进行扩散模型的训练,通过考虑前一时间步生成的样本来引导迭代生成过程。我们还提出了 Pseudo-LPIPS,一种对各种超参数值更鲁棒的新型度量损失。尽管简单,该方法在基准数据集上表现出强大的性能。我们的模型在 CIFAR-10 上分别以一步采样和两步采样的 FID 分数为 2.57 和 2.33,超越了 GAN 和蒸馏基模型获得的分数。通过将采样扩展到 1000 步,我们将 FID 分数进一步降低到 1.79,与文献中的最先进方法相一致。在 ImageNet 64x64 上,我们的方法与主要模型相当。
May, 2024
我们提出了一种结合潜在空间扩散模型和数据集精炼的潜在数据集精炼方法(LD3M),旨在解决机器学习面临的大型数据集和高分辨率图像生成的挑战,并在多个 ImageNet 子集和高分辨率图像上实验表明,LD3M 在 1 个和 10 个图像每类的情况下,相比最先进的精炼技术,提高了最高 4.8 个百分点和 4.2 个百分点的性能。
Mar, 2024