BriefGPT.xyz
Oct, 2024
多学生扩散蒸馏提升一次性生成器性能
Multi-student Diffusion Distillation for Better One-step Generators
HTML
PDF
Yanke Song, Jonathan Lorraine, Weili Nie, Karsten Kreis, James Lucas
TL;DR
本文解决了扩散模型在多步骤推理中生成高质量样本的问题,提出了一种多学生蒸馏框架(MSD),该框架可以将条件教师扩散模型蒸馏为多个单步生成器。通过为每个学生生成器分配条件数据的子集,MSD在相同能力下实现了更高的生成质量,同时显著加快了推理速度,并在一次性图像生成上获得了新的最优成绩。
Abstract
Diffusion Models
achieve high-quality sample generation at the cost of a lengthy multistep inference procedure. To overcome this, diffusion
Distillation
techniques produce student generators capable of matching o
→