一致性扩散模型的可证明统计速率
一步采样的连贯性模型在训练阶段中具有良好的实证效果,通过训练一系列连贯性函数,能够将扩散过程的任何时间步骤的任意点映射到其起始点,其理论基础表明,为了生成与目标分布在 ε 接近程度内的样本,连贯性学习的步骤数应超过 d^5/2/ε,其中 d 为数据维度,这一理论为连贯性模型的有效性和实用性提供了深入洞察,从而启示其在下游推理任务中的实用性。
Feb, 2024
我们在这篇论文中,对扩散模型和数据生成分布之间的 Wasserstein 距离进行了定量上界的推导,该结果不依赖于数据生成分布的得分函数,并且适用于具有有界实例空间的任意数据生成分布,即使这些分布对勒贝格测度没有密度,而且上界不会受到指数依赖的影响。
Dec, 2023
扩散模型在图像生成、解决逆问题和文本到图像合成等各种应用中展示了领先的性能。我们揭示了与大多数其他生成模型截然不同的 “一致模型可重现性” 现象,通过广泛的实验表明,扩散模型在相同初始噪声输入和确定性求解器采样时,倾向于产生几乎相同的输出内容。此模型可重现性在不同的训练环境下均成立,包括记忆化和泛化模式。进一步的分析提供了对 “记忆化模式” 中模型可重现性的理论解释,并揭示此有价值的特性适用于许多扩散模型的变种。更深入理解此现象有可能产生基于扩散模型的更可解释和可控的数据生成过程。
Oct, 2023
这项研究修改最近提出的一致性蒸馏框架,用于训练只需要单个神经网络查询的 TTA 模型,同时通过在音频空间中使用新的损失函数(如 CLAP 得分)对一致性 TTA 模型进行微调,从而在保留扩散模型高生成质量和多样性的同时,将查询次数减少了 400 倍。
Sep, 2023
一步法生成模型中的一种家族为一次生成高质量数据提供了新的方法,通过改进的一致性训练技术,该研究提出了克服预训练模型局限性以及避免评估偏差的方法,并在 CIFAR-10 和 ImageNet 数据集上表现出了显著的改进。
Oct, 2023
去噪扩散模型是一种将噪声转换为数据的强大生成技术,本论文研究了离散时间扩散模型在更大范围的分布上的收敛性保证,并提出了一种加速采样器来提高收敛速度和维度依赖性。
Feb, 2024
通过集成随机微分方程求解器到一致性蒸馏中,提出并验证了 Stochastic Consistency Distillation (SCott) 方法,该方法能够加快文本到图像生成的过程,并且在稳定扩散 - V1.5 模型上,表现优于其他模型在 MSCOCO-2017 5K 数据集上的生成结果。
Mar, 2024
本文旨在建立三种最近针对不同目标设计的 ' 连续性 ' 概念之间的理论联系,从而为一种更全面和包容性的连续性模型框架提供潜力。
Jun, 2023
扩散模型在近年来引起了广泛关注,然而其高计算成本限制了实际应用,本文通过研究发现了扩散模型的稳定性,并提出了两种训练加速策略,即课程学习的时间步骤调度和动量衰减策略。实验结果表明,这些策略可以显著减少训练时间并提高生成图像的质量。
Mar, 2024