基于深度平衡模型的一步扩散蒸馏
扩散模型的实例教学方法和分布教学方法在图像生成模型方面取得了显著的研究成果,提出的分布教学方法在减少训练图像数量的同时取得了最先进的结果,提高了对高效图像生成模型的理解并为各种应用提供了可扩展的框架。
May, 2024
通过采用深度平衡固定点系统,我们重新思考了基于扩散的图像修复模型,并且通过模型化扩散模型中的整个采样链作为多元固定点系统,以获得解析解,从而能够并行地进行单图像采样,无需训练。在 DEQ 中计算快速梯度,并发现初始化优化可以提高性能并控制生成方向。在基准测试和实际环境中进行的大量实验证明了我们提出的方法的有效性。代码和模型将公开提供。
Nov, 2023
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022
我们提出了一种方法将复杂的多步扩散模型提炼为单步有条件生成对抗网络学生模型,从而大大加速推理过程,同时保持图像质量。我们的方法将扩散提炼解释为一种对应的图像到图像转换任务,使用扩散模型 ODE 轨迹的噪声到图像对。为了进行高效的回归损失计算,我们提出了一种在扩散模型的潜空间中直接操作的感知损失 E-LatentLPIPS,利用增强的集合。此外,我们改进了扩散模型,构建了一个多尺度鉴别器,具有文本对齐损失,建立了一种有效的基于条件生成对抗网络的公式。即使考虑到数据集构建成本,E-LatentLPIPS 也比许多现有的提炼方法更高效。我们证明我们的一步生成器在零样本 COCO 基准测试上优于最先进的一步扩散提炼模型 - DMD、SDXL-Turbo 和 SDXL-Lightning。
May, 2024
在这篇文章中,我们发现了扩散模型生成质量受到迭代次数限制的根本原因,并提出了一个简单而有效的解决方案来缓解这些影响。我们的解决方案可以应用于任何现有的扩散模型,并且在各种 SOTA 体系结构上运行多个数据集和配置进行实验和详尽的消融研究,证明能够立即提高它们的生成质量。
Mar, 2022
通过反向蒸馏、动态适应的位移重构损失和噪声修正技术,我们提出了一种新的蒸馏框架,用于实现高保真度、多样化的样本生成,仅使用一到三个步骤即可。通过大量实验证明,我们的方法在定量指标和人工评估中优于现有竞争对手,仅仅使用三个降噪步骤即可达到与教师模型相当的性能,从而实现了高效高质量的生成。
May, 2024
通过 EM Distillation 方法,将扩散模型精简至一步生成器模型,以最小损失的感知质量学习最大似然,提高了在 ImageNet-64 和 ImageNet-128 上的 FID 评分,并优于先前在文本到图像扩散模型提取方面的工作。
May, 2024
通过实施分布匹配蒸馏 (Distribution Matching Distillation) 以及多步扩散输出的大规模结构简单回归损失相匹配的方法,我们将扩散模型转化为一步图像生成器,以显著降低对图像质量的影响,使其在 ImageNet 64x64 上达到 2.62 FID,在无监督 COCO-30k 上达到 11.49 FID,并可通过 FP16 推理在现代硬件上以 20 FPS 生成图像。
Nov, 2023
Adversarial Diffusion Distillation (ADD) is a new training approach that efficiently samples large-scale image diffusion models in 1-4 steps, outperforming existing few-step methods and reaching state-of-the-art performance in only four steps, enabling real-time image synthesis.
Nov, 2023