多步骤一致性模型
我们给出了一种新型一步生成模型的收敛保证,这种模型被称为一致性模型(CMs),可以在一步内高效地从任何现实数据分布中进行采样并产生与弥散模型生成的样本相媲美的结果。
Aug, 2023
利用潜在一致性模型(LCMs)解决迭代抽样过程在高分辨率图像合成中的计算负担和生成速度慢的问题,LCMs通过直接预测导引反向扩散过程的ODE解决方案在潜空间中,实现了快速、高保真度的采样。
Oct, 2023
通过集成随机微分方程求解器到一致性蒸馏中,提出并验证了Stochastic Consistency Distillation (SCott)方法,该方法能够加快文本到图像生成的过程,并且在稳定扩散-V1.5模型上,表现优于其他模型在MSCOCO-2017 5K数据集上的生成结果。
Mar, 2024
扩散模型在近年来引起了广泛关注,然而其高计算成本限制了实际应用,本文通过研究发现了扩散模型的稳定性,并提出了两种训练加速策略,即课程学习的时间步骤调度和动量衰减策略。实验结果表明,这些策略可以显著减少训练时间并提高生成图像的质量。
Mar, 2024
我们提出了一种新的方法,通过匹配沿采样轨迹给定噪声数据的干净数据的条件期望来将扩散模型加速采样,从而将多步扩散模型提炼为少步模型。我们的方法扩展了最近提出的一步方法到多步情况,并通过以矩匹配的方式解释这些方法,从而提供了一种新的视角。通过使用多达8个采样步骤,我们获得的提炼模型不仅在Imagnet数据集上超越了其一步版本,还超越了原始的多步教师模型,获得了最新的最先进结果。我们还展示了一种大型文本到图像模型的有希望结果,在该模型中,我们可以直接在图像空间中快速生成高分辨率图像,而无需自编码器或上采样器。
Jun, 2024
将大型潜在扩散模型(LDMs)提炼为快速采样模型是一个备受关注的研究领域,本文通过扩展最新的多步一致性提炼(MCD)策略,建立了用于低成本高质量图像合成的多步潜在一致性模型(MLCM)。MLCM通过与强调联合段一致性的渐进训练策略相结合,能够提高少步骤生成的质量。实验结果表明,MLCM仅需2-8个采样步骤即可产生高质量、令人愉悦的图像,比4步骤的LCM、8步骤的SDXL-Lightning和8步骤的HyperSD显著优越;此外,MLCM还在可控生成、图像风格转移和中文到图像生成等方面展示了其多功能性。
Jun, 2024
本文提出了一种统计理论,将一致性模型的训练视为分布差异最小化问题,并通过使用Wasserstein距离,导出了与传统扩散模型相匹配的一致性模型的统计估计速率,同时揭示了一致性模型通过蒸馏和隔离方法进行训练的优势。
Jun, 2024
本研究解决了一致性模型在从扩散模型加速采样时,训练过程对生成性能的限制。通过对一致性训练进行截断时间范围的推广,使模型专注于生成,同时提出了新的一致性函数参数化和二阶段训练程序。实验证明,该方法在CIFAR-10和ImageNet数据集上实现了比现有先进模型更优的生成效果。
Oct, 2024
本研究针对一致性模型在训练和调优过程中存在的局限性进行探讨,提出了一种新的框架,通过将去噪过程建模为马尔可夫决策过程,并利用时间差分学习进行价值估计。提出的稳定一致性调优方法显著提升了在CIFAR-10和ImageNet-64等基准测试上的性能,尤其是在ImageNet-64上实现了新的一致性模型状态-of-the-art绩效。
Oct, 2024