一致性扩散模型:通过学习一致性来缓解采样漂移
通过引入参考样本,将加权条件分数作为更稳定的训练目标,以降低训练目标的协方差,改进扩散模型算法,并在多个数据集上实现了SOTA FID的效果。
Feb, 2023
一步采样的连贯性模型在训练阶段中具有良好的实证效果,通过训练一系列连贯性函数,能够将扩散过程的任何时间步骤的任意点映射到其起始点,其理论基础表明,为了生成与目标分布在ε接近程度内的样本,连贯性学习的步骤数应超过d^5/2/ε,其中d为数据维度,这一理论为连贯性模型的有效性和实用性提供了深入洞察,从而启示其在下游推理任务中的实用性。
Feb, 2024
扩散模型在近年来引起了广泛关注,然而其高计算成本限制了实际应用,本文通过研究发现了扩散模型的稳定性,并提出了两种训练加速策略,即课程学习的时间步骤调度和动量衰减策略。实验结果表明,这些策略可以显著减少训练时间并提高生成图像的质量。
Mar, 2024
我们提出了第一个从嘈杂的训练数据中获得未污染分布样本的扩散模型训练框架,使用了Tweedie公式的双重应用和一致性损失函数。我们还通过识别几乎完美重建的极度受损图像来提供扩散模型记忆训练集的进一步证据,引发了版权和隐私问题。我们的训练方法可用于缓解这个问题,并展示了通过对Stable Diffusion XL进行微调,使用仅嘈杂样本生成分布样本的能力。我们的框架减少了微调数据集的记忆量,同时保持有竞争力的性能。
Mar, 2024
对于扩散模型的准确性进行了理论研究,通过梯度下降方法对去噪积分评分匹配的训练和采样过程进行了非渐近收敛分析,并提供了方差爆炸模型的抽样误差分析。通过这两个结果的结合,明确了如何设计有效生成的训练和采样过程。
Jun, 2024
本文提出了一种统计理论,将一致性模型的训练视为分布差异最小化问题,并通过使用Wasserstein距离,导出了与传统扩散模型相匹配的一致性模型的统计估计速率,同时揭示了一致性模型通过蒸馏和隔离方法进行训练的优势。
Jun, 2024
本研究解决了一致性模型在从扩散模型加速采样时,训练过程对生成性能的限制。通过对一致性训练进行截断时间范围的推广,使模型专注于生成,同时提出了新的一致性函数参数化和二阶段训练程序。实验证明,该方法在CIFAR-10和ImageNet数据集上实现了比现有先进模型更优的生成效果。
Oct, 2024
本研究针对一致性模型在训练和调优过程中存在的局限性进行探讨,提出了一种新的框架,通过将去噪过程建模为马尔可夫决策过程,并利用时间差分学习进行价值估计。提出的稳定一致性调优方法显著提升了在CIFAR-10和ImageNet-64等基准测试上的性能,尤其是在ImageNet-64上实现了新的一致性模型状态-of-the-art绩效。
Oct, 2024
本研究旨在解决扩散去噪桥接模型(DDBMs)在采样过程中对计算资源的高需求问题。我们提出了一种新颖的方法,通过学习DDBMs的概率流常微分方程的连续性函数,从而实现高效采样。实验结果表明,该方法可实现比基础DDBM快4到50倍的采样速度,并在视觉质量方面表现更佳,具有显著的实用价值。
Oct, 2024
本研究解决了扩散去噪桥接模型在采样过程中所需高计算成本的问题,通过学习概率流常微分方程的一致性函数来提升采样效率。提出的两个新方法使得采样速度提高了4到50倍,同时在视觉质量上也表现更优,推动了扩散模型在图像翻译等应用中的实际部署。
Oct, 2024