渐进式蒸馏:用于快速采样扩散模型
扩散模型的实例教学方法和分布教学方法在图像生成模型方面取得了显著的研究成果,提出的分布教学方法在减少训练图像数量的同时取得了最先进的结果,提高了对高效图像生成模型的理解并为各种应用提供了可扩展的框架。
May, 2024
通过图像条件实现的一种新颖的有条件蒸馏方法,将扩散模型的先验知识与图像条件相结合,大大简化了以往两阶段的蒸馏过程,并通过少量的额外参数和冻结的无条件主干网络实现了一种新的高效蒸馏机制,实验结果表明,该方法在多个任务上的表现优于现有的人工蒸馏技术,并且是第一个能够与更慢的精细调优有条件扩散模型相匹配的蒸馏策略。
Oct, 2023
通过 EM Distillation 方法,将扩散模型精简至一步生成器模型,以最小损失的感知质量学习最大似然,提高了在 ImageNet-64 和 ImageNet-128 上的 FID 评分,并优于先前在文本到图像扩散模型提取方面的工作。
May, 2024
我们提出了一种新的方法,通过匹配沿采样轨迹给定噪声数据的干净数据的条件期望来将扩散模型加速采样,从而将多步扩散模型提炼为少步模型。我们的方法扩展了最近提出的一步方法到多步情况,并通过以矩匹配的方式解释这些方法,从而提供了一种新的视角。通过使用多达 8 个采样步骤,我们获得的提炼模型不仅在 Imagnet 数据集上超越了其一步版本,还超越了原始的多步教师模型,获得了最新的最先进结果。我们还展示了一种大型文本到图像模型的有希望结果,在该模型中,我们可以直接在图像空间中快速生成高分辨率图像,而无需自编码器或上采样器。
Jun, 2024
通过提出一种新颖的去随机扩散过程,我们加速了离散扩散模型的算法;我们还引入了一种连续时间采样算法,能够比有限步长的离散时间采样算法提供更好的样本质量。大量实验表明,在自然语言生成和机器翻译任务中,我们的方法在离散扩散模型的生成速度和样本质量方面表现出优越性。
Dec, 2023
本文介绍了直接去噪扩散模型(DDDM):一种生成逼真图像的简单且通用方法,具有少步采样的特点,同时保留了多步采样以获得更好的性能。DDDM 不需要精心设计的采样器或预训练的蒸馏模型,而是以自身的先前训练迭代生成的估计目标为条件进行扩散模型的训练,通过考虑前一时间步生成的样本来引导迭代生成过程。我们还提出了 Pseudo-LPIPS,一种对各种超参数值更鲁棒的新型度量损失。尽管简单,该方法在基准数据集上表现出强大的性能。我们的模型在 CIFAR-10 上分别以一步采样和两步采样的 FID 分数为 2.57 和 2.33,超越了 GAN 和蒸馏基模型获得的分数。通过将采样扩展到 1000 步,我们将 FID 分数进一步降低到 1.79,与文献中的最先进方法相一致。在 ImageNet 64x64 上,我们的方法与主要模型相当。
May, 2024
我们提出了一种方法将复杂的多步扩散模型提炼为单步有条件生成对抗网络学生模型,从而大大加速推理过程,同时保持图像质量。我们的方法将扩散提炼解释为一种对应的图像到图像转换任务,使用扩散模型 ODE 轨迹的噪声到图像对。为了进行高效的回归损失计算,我们提出了一种在扩散模型的潜空间中直接操作的感知损失 E-LatentLPIPS,利用增强的集合。此外,我们改进了扩散模型,构建了一个多尺度鉴别器,具有文本对齐损失,建立了一种有效的基于条件生成对抗网络的公式。即使考虑到数据集构建成本,E-LatentLPIPS 也比许多现有的提炼方法更高效。我们证明我们的一步生成器在零样本 COCO 基准测试上优于最先进的一步扩散提炼模型 - DMD、SDXL-Turbo 和 SDXL-Lightning。
May, 2024
基于图的扩散模型在解决 NP 完全问题的组合优化中展现了有希望的结果。然而,由于去噪扩散过程的迭代评估特性,这些模型通常在推理时效率低下。本文提出使用渐进蒸馏来加速推理过程,通过在去噪过程中只进行少量步骤的预测(例如,在单个步骤中预测未来两步)。我们的实验结果表明,经过渐进蒸馏的模型在 TSP-50 数据集上仅仅损失 0.019% 的性能,而推理速度却提高了 16 倍。
Aug, 2023
本文介绍了一种新的方法 ParaDiGMS,通过并行执行多个去噪步骤来加速预训练扩散模型的采样速度。该方法通过使用 Picard 迭代猜测未来去噪步骤的解,并迭代地进行加工,从而使扩散采样过程可以并行化,使计算机可用性更高。使用 ParaDiGMS,各种机器人和图像生成模型的采样速度提高 2-4 倍,无论对任务奖励、FID 分数、还是 CLIP 分数都没有任何可感知的退化。
May, 2023