扩散模型是固有的一步生成器
通过引入 DMD2 技术,将 Distribution Matching Distillation 应用于一步图像生成,通过 GAN loss 以及多步采样等技巧的改进,在降低推理成本的情况下,取得了在图像生成任务中新的最优结果。
May, 2024
通过实施分布匹配蒸馏 (Distribution Matching Distillation) 以及多步扩散输出的大规模结构简单回归损失相匹配的方法,我们将扩散模型转化为一步图像生成器,以显著降低对图像质量的影响,使其在 ImageNet 64x64 上达到 2.62 FID,在无监督 COCO-30k 上达到 11.49 FID,并可通过 FP16 推理在现代硬件上以 20 FPS 生成图像。
Nov, 2023
本综述主要介绍了最近视觉领域中扩散模型的进展,特别是那些影响扩散模型计算效率的重要设计方面,重点是强调了最近提出的设计选择,这些选择导致更高效的扩散模型。
Oct, 2022
我们提出了一种方法将复杂的多步扩散模型提炼为单步有条件生成对抗网络学生模型,从而大大加速推理过程,同时保持图像质量。我们的方法将扩散提炼解释为一种对应的图像到图像转换任务,使用扩散模型 ODE 轨迹的噪声到图像对。为了进行高效的回归损失计算,我们提出了一种在扩散模型的潜空间中直接操作的感知损失 E-LatentLPIPS,利用增强的集合。此外,我们改进了扩散模型,构建了一个多尺度鉴别器,具有文本对齐损失,建立了一种有效的基于条件生成对抗网络的公式。即使考虑到数据集构建成本,E-LatentLPIPS 也比许多现有的提炼方法更高效。我们证明我们的一步生成器在零样本 COCO 基准测试上优于最先进的一步扩散提炼模型 - DMD、SDXL-Turbo 和 SDXL-Lightning。
May, 2024
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022
本文介绍了直接去噪扩散模型(DDDM):一种生成逼真图像的简单且通用方法,具有少步采样的特点,同时保留了多步采样以获得更好的性能。DDDM 不需要精心设计的采样器或预训练的蒸馏模型,而是以自身的先前训练迭代生成的估计目标为条件进行扩散模型的训练,通过考虑前一时间步生成的样本来引导迭代生成过程。我们还提出了 Pseudo-LPIPS,一种对各种超参数值更鲁棒的新型度量损失。尽管简单,该方法在基准数据集上表现出强大的性能。我们的模型在 CIFAR-10 上分别以一步采样和两步采样的 FID 分数为 2.57 和 2.33,超越了 GAN 和蒸馏基模型获得的分数。通过将采样扩展到 1000 步,我们将 FID 分数进一步降低到 1.79,与文献中的最先进方法相一致。在 ImageNet 64x64 上,我们的方法与主要模型相当。
May, 2024
通过 EM Distillation 方法,将扩散模型精简至一步生成器模型,以最小损失的感知质量学习最大似然,提高了在 ImageNet-64 和 ImageNet-128 上的 FID 评分,并优于先前在文本到图像扩散模型提取方面的工作。
May, 2024
通过集成随机微分方程求解器到一致性蒸馏中,提出并验证了 Stochastic Consistency Distillation (SCott) 方法,该方法能够加快文本到图像生成的过程,并且在稳定扩散 - V1.5 模型上,表现优于其他模型在 MSCOCO-2017 5K 数据集上的生成结果。
Mar, 2024