潜在变形:用于零样本视频到视频翻译的一致性扩散潜变量
本研究提出了一种基于零样本文本引导的视频到视频转换框架来适应图像模型到视频的应用,在形状、纹理和颜色上强制执行分层的跨帧约束,实现低成本下的全局样式和局部纹理的时空一致性。
Jun, 2023
本文提出了 QueryWarp 框架,一种用于时域连贯人体动作视频转换的新型方法。通过构建不同帧之间查询标记的时域相关性,我们使用外观流来对先前帧的查询标记进行变形,以与当前帧的查询标记对齐,从而在输出的自注意层上施加了显式约束,有效地保证了时域连贯性。在各种人体动作视频转换任务上进行实验证明了我们的 QueryWarp 框架在定性和定量上均超越了现有最先进的方法。
Feb, 2024
该研究提出了一种基于预训练图像生成模型的高效文本到视频生成方法 --Latent-Shift,该方法利用 U-Net 扩散模型在潜空间中学习视频扩散模型。利用无参数的时间移位模块来进行视频的生成工作。研究表明,Latent-Shift 的效果可与或更优于已有的方法,并且能够在进行 T2V 生成的微调的情况下生成图像。
Apr, 2023
我们提出了一种零样本方法,基于预训练的文本到图像扩散模型实现一致的文本到动画角色合成。通过利用现有的基于文本的动作扩散模型生成多样的动作,并使用其指导文本到图像模型,我们成功地在不需要训练或微调的情况下生成了具有不同动作和风格的时序一致的视频,优于现有的零样本文本到视频方法在像素一致性和用户偏好方面。
Dec, 2023
通过扩散建模,我们提出了一种基于转换器的 W.A.L.T 方法,用于逼真视频生成。我们采用了两个关键设计决策:一是使用因果编码器在统一的潜在空间中联合压缩图像和视频,实现跨模态的训练和生成;二是为了记忆和训练效率,我们使用了一个针对联合空间和时空生成建模的窗口注意力架构。这些设计决策使我们能够在已知的视频 (UCF-101 和 Kinetics-600) 和图像 (ImageNet) 生成基准上达到最先进的性能,而不使用分类器引导。最后,我们还训练了三个模型的串联,用于文本到视频生成任务,包括基本的潜在视频扩散模型和两个视频超分辨率扩散模型,以每秒 8 帧生成 512 x 896 分辨率的视频。
Dec, 2023
本研究提出了一种高效有效的方法,通过利用条件图像扩散模型实现长度可变视频中时间一致的合成到真实视频转换,同时保持视频的时空一致性。我们通过使用可用的合成视频的光流信息,通过联合噪声优化有效地最小化了时空不一致性,实现对多个合成图像生成的平行化。通过在各种综合基准上进行的大量实验证明了我们的方法的有效性,并且我们的方法不需要对扩散模型进行任何培训或微调。 最后,我们证明了我们的方法在时空一致性和视觉质量方面均优于其他基线方法。
May, 2023
基于文本驱动的视频编辑,我们介绍了一个利用文本到图像扩散模型的框架,生成高质量视频的同时保留输入视频的空间布局和运动,实现编辑视频的一致性。
Jul, 2023
通过引入一种新的自我关注计算方式(Consistent Self-Attention),以及引入一种语义空间时间运动预测模块(Semantic Motion Predictor),本文提出了一种名为 StoryDiffusion 的框架,能够生成包含丰富内容的一致图像或视频,用来描述基于文本的故事。
May, 2024