BriefGPT.xyz
Oct, 2024
通过一对多知识蒸馏加速扩散模型
Accelerating Diffusion Models with One-to-Many Knowledge Distillation
HTML
PDF
Linfeng Zhang, Kaisheng Ma
TL;DR
本研究针对扩散模型在生成图像时面临的重大计算开销问题,提出了一种新颖的一对多知识蒸馏(O2MKD)方法。这一方法通过将单个教师扩散模型蒸馏为多个学生扩散模型,使每个学生模型专注于不同的连续时间步骤,从而显著加快生成速度,实验结果显示在多个数据集上均实现了加速效果。
Abstract
Significant advancements in
Image Generation
have been made with
Diffusion Models
. Nevertheless, when contrasted with previous generative models,
→