May, 2023

文本到图像扩散模型的架构压缩

TL;DR通过引入去块知识蒸馏稳定扩散模型(BK-SDMs)的传统架构压缩技术,从而使其可用于通用 T2I 合成,我们从 SDMs 的 U-Net 中消除了几个残差和注意块,显著地减少了参数数量、MACs 和延迟,使用少量的资源进行蒸馏式预训练,使我们的紧凑模型能够模仿原始 SDM,并在零样本 MS-COCO 基准测试中对抗更大的多十亿参数模型,同时还演示了我们轻量级预训练模型在个性化生成中的适用性。