Dec, 2023
基于LoRA增强的导向扩散模型蒸馏
LoRA-Enhanced Distillation on Guided Diffusion Models
TL;DR我们的研究探索了一种新颖的方法,将低秩适应性(LoRA)与模型蒸馏相结合,以有效地压缩扩散模型。该方法不仅减少了推理时间,还减轻了内存开销,甚至在应用蒸馏之前就显著降低了内存消耗。结果是显著减少了由蒸馏过程导致的推理时间,并且内存消耗减少了50%。生成图像的检查强调了LoRA增强蒸馏与所提供提示的图像质量和对齐性一致。总之,传统的蒸馏倾向于增加内存消耗,而LoRA增强蒸馏则在质量方面没有任何妥协,提供了优化的解决方案。