条件扩散蒸馏
我们提出了一种方法将复杂的多步扩散模型提炼为单步有条件生成对抗网络学生模型,从而大大加速推理过程,同时保持图像质量。我们的方法将扩散提炼解释为一种对应的图像到图像转换任务,使用扩散模型 ODE 轨迹的噪声到图像对。为了进行高效的回归损失计算,我们提出了一种在扩散模型的潜空间中直接操作的感知损失 E-LatentLPIPS,利用增强的集合。此外,我们改进了扩散模型,构建了一个多尺度鉴别器,具有文本对齐损失,建立了一种有效的基于条件生成对抗网络的公式。即使考虑到数据集构建成本,E-LatentLPIPS 也比许多现有的提炼方法更高效。我们证明我们的一步生成器在零样本 COCO 基准测试上优于最先进的一步扩散提炼模型 - DMD、SDXL-Turbo 和 SDXL-Lightning。
May, 2024
本文提出使用去噪扩散模型的内部表示来适应新条件,以解决向这些模型提供条件信息的难题,并演示如何使用生成的合成图像增强 Tiny ImageNet 训练集从而提高 ResNet 基线的分类精度。
Jun, 2023
通过使用预先训练的逆模型设计的损失,利用扩散模型的生成控制能力,我们引入了 Steered Diffusion,这是一个通用的框架,用于实现基于扩散模型的逼真零样本条件图像生成,以在推理时引导扩散模型的图像生成过程。我们的实验表明,与最先进的基于扩散的即插即用模型相比,我们的框架在多种任务上如修补、着色、文本引导的语义编辑和图像超分辨率方面有明显的定性和定量改进,同时增加了可忽略的额外计算成本。
Sep, 2023
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022
利用生成式文本到图像模型的最新进展,我们引入了数据集精炼使用扩散模型 (D3M) 作为一种新的数据集精炼范式。通过文本反演技术,我们利用学习到的文本提示为大型数据集创建简洁且有信息量的表示,以在固定的内存预算内有效地存储和推理新样本,并通过在不同内存预算下在各种计算机视觉基准数据集上进行的广泛实验验证了我们方法的有效性。
Mar, 2024
本论文提出了一种高效、快速和多功能的蒸馏方法,Flash Diffusion,用于加速预训练扩散模型的生成,在 COCO2014 和 COCO2017 数据集上,在少量步骤的图像生成方面表现出最先进的 FID 和 CLIP-Score 性能,只需几个 GPU 小时的训练和比现有方法少得多的可训练参数。
Jun, 2024
本文介绍了一种名为选择性扩散蒸馏(SDD)的新框架,其在图像处理任务中克服了扩散模型的权衡问题,通过在扩散模型指导下训练前馈图像操作网络和适当选择语义相关的时间步长,获得了图像的保真度和可编辑性。
Jul, 2023