渐进式蒸馏:用于快速采样扩散模型
通过Differentiable Diffusion Sampler Search方法优化Diffusion Models的samplers,使用Generalized Gaussian Diffusion Models生成高质量的样本,实现无条件图像生成。
Feb, 2022
本文概述了“扩散模型”在图像合成、视频生成、分子设计等领域中的应用, 并将相关研究分为三大类:高效采样、改进似然估计和处理具有特殊结构的数据。此外,还探讨了将扩散模型与其他生成模型相结合以获得更好结果的潜能,在计算机视觉、自然语言生成、时态数据模型等领域具有广泛的应用。本文旨在提供一个全面的扩散模型综述,指出其重点研究领域并指向未来的研究方向。
Sep, 2022
本综述为关于应用于计算机视觉的去噪扩散模型文章提供了全面的回顾,包括在领域中的理论和实际贡献,提供了三种通用扩散建模框架,并介绍了扩散模型与其他深度生成模型之间的关系,并引入了在计算机视觉中应用扩散模型的多个视角分类,最后,我们说明了离散模型的当前限制并预见了未来研究的一些有趣方向。
Sep, 2022
Adversarial Diffusion Distillation (ADD) is a new training approach that efficiently samples large-scale image diffusion models in 1-4 steps, outperforming existing few-step methods and reaching state-of-the-art performance in only four steps, enabling real-time image synthesis.
Nov, 2023
通过将去噪步骤直接整合到模型的架构中,本研究提出了一种新方法,将扩散模型与生成对抗网络结合起来,通过知识蒸馏实现更高效的训练和评估,从而减少了所需的参数和去噪步骤,提高了测试时的采样速度。
May, 2024
我们提出了一种新的方法,通过匹配沿采样轨迹给定噪声数据的干净数据的条件期望来将扩散模型加速采样,从而将多步扩散模型提炼为少步模型。我们的方法扩展了最近提出的一步方法到多步情况,并通过以矩匹配的方式解释这些方法,从而提供了一种新的视角。通过使用多达8个采样步骤,我们获得的提炼模型不仅在Imagnet数据集上超越了其一步版本,还超越了原始的多步教师模型,获得了最新的最先进结果。我们还展示了一种大型文本到图像模型的有希望结果,在该模型中,我们可以直接在图像空间中快速生成高分辨率图像,而无需自编码器或上采样器。
Jun, 2024
该研究解决了扩散模型在取样速度上存在的瓶颈,通过提出一种新的框架,能够自适应地分配计算资源以估计得分,从而减少整体取样时间。研究发现,得分估计所需的计算量会随着时间步变化,提出的早期退出策略能够在不影响图像质量的前提下显著提高取样吞吐量。
Aug, 2024
本研究解决了扩散生成模型在生成任务中采样速度慢的问题。提出了一种简单快速的蒸馏方法,显著缩短了微调时间,并通过识别关键因素提升了合成效率与质量。研究结果表明,该方法在图像生成任务中实现了良好的样本质量与微调成本的平衡。
Sep, 2024
本研究针对扩散模型在生成图像时面临的重大计算开销问题,提出了一种新颖的一对多知识蒸馏(O2MKD)方法。这一方法通过将单个教师扩散模型蒸馏为多个学生扩散模型,使每个学生模型专注于不同的连续时间步骤,从而显著加快生成速度,实验结果显示在多个数据集上均实现了加速效果。
Oct, 2024