AsyncDiff:通过异步去噪并行化传播模型
AdaDiff 是一个轻量级框架,通过学习实例特定的步骤使用策略,优化了扩散模型的图像 / 视频生成过程,以最大化平衡推理时间和生成质量的回报函数,并在减少推理时间至少 33% 的情况下实现与基准方法相似的视觉质量。
Nov, 2023
通过利用并行处理和分布式计算,我们提出了 DistriFusion 方法以应对扩散模型在生成高分辨率图像时面临的计算资源和延迟的挑战。DistriFusion 方法能够以较低的质量损失,在多个 GPU 上实现高效率的图像生成,并通过异步通信以及计算流水线的方式实现了高达 6.1 倍的速度提升。
Feb, 2024
Diffusion models have gained attention in image synthesis, and this paper introduces DeepCache, a training-free paradigm that accelerates diffusion models by capitalizing on temporal redundancy in denoising steps and achieving a speedup factor of 2.3x for Stable Diffusion v1.5 and 4.1x for LDM-4-G without significant decline in CLIP Score or FID on ImageNet.
Dec, 2023
本文介绍了一种新的方法 ParaDiGMS,通过并行执行多个去噪步骤来加速预训练扩散模型的采样速度。该方法通过使用 Picard 迭代猜测未来去噪步骤的解,并迭代地进行加工,从而使扩散采样过程可以并行化,使计算机可用性更高。使用 ParaDiGMS,各种机器人和图像生成模型的采样速度提高 2-4 倍,无论对任务奖励、FID 分数、还是 CLIP 分数都没有任何可感知的退化。
May, 2023
利用连续动力系统设计一种新型去噪网络,以提高扩散模型的参数效率、收敛速度和噪声鲁棒性。与基准模型相比,该模型具有约四分之一的参数量和百分之三十的浮点操作数(FLOPs),推理速度提高了 70%,并且收敛到了更好的质量解。
Oct, 2023
提出了一种名为 Step-Adaptive Training 的创新训练策略,通过在初始阶段训练一个基础去噪模型来涵盖所有时间步长,然后将时间步长分成不同的组,在每个组内进行微调以实现专门的去噪能力,这种方法不仅提高了模型性能,还显著降低了计算成本。
Dec, 2023
扩展前述的隐式条件方法,我们提出了一种新的框架,通过动态步长计算、无噪声缩放输入和潜在空间投影的方式增强了扩散模型的能力,有效地定位异常并在两个著名异常检测数据集上取得了最先进的性能。
Jan, 2024
我们提出了一种时间步齐器方法,用于改善扩散模型的图像生成质量和推理速度,通过在每个去噪步骤中替换原始参数化,将网络调整到准确的时间步骤上,从而提高各种最先进加速方法的性能。
Oct, 2023
本文提出了一种名为 ProDiff 的文本到语音模型,它利用渐进式快速扩散模型直接预测干净数据来减少扰动模型迭代次数,从而提高高质量的音频语音合成速度。使用基于 GPU 硬件的 ProDiff 模型可以实现 24 倍于实时速度的语音合成,相对于其他使用数百步骤的模型,它只需要进行 2 次模型迭代就能合成高保真和多样化的语音合成样本.
Jul, 2022
本文提出了一种基于普通微分方程的线性扩散模型(LinDiff),其旨在实现快速推理和高采样质量,并通过基于补丁的处理方法来减少计算复杂性和实现嘈杂语音的有效全局建模,并使用对抗性训练进一步改善样本质量,并在 Mel - 声谱图上条件语音合成中进行测试,实验结果表明,即使只有一个扩散步骤,该模型也可以合成高质量的语音,而且在更快的合成速度下合成质量与自回归模型相媲美。
Jun, 2023