图像导体:交互式视频合成的精准控制
我们提出了一种无需训练且稳健的解决方案,为现成的视频扩散模型提供摄像机运动控制。我们的方法不同于以前的工作,不需要在带有摄像机注释的数据集上进行有监督的微调或通过数据增强进行自监督训练。相反,它可以与大多数预训练的视频扩散模型插入和播放,并且只需一个图像或文本提示作为输入即可生成可控摄像机的视频。我们的工作灵感来自于中间隐藏变量对生成结果的布局先验,因此重新排列其中的噪点像素将重新分配输出内容。由于摄像机移动也可以被视为透视变化引起的像素重新排列,如果它们的噪点隐藏变量相应改变,视频可以按照特定的摄像机运动进行重新组织。基于此,我们提出了我们的方法 CamTrol,实现了对视频扩散模型的稳健摄像机控制。这通过两个阶段的过程实现。首先,我们在三维点云空间中建模图像布局重新排列通过显式摄像机运动。其次,我们使用一系列重新排列的图像形成的噪点隐藏变量的布局先验生成具有摄像机运动的视频。广泛的实验证明了我们的方法在控制生成视频的摄像机运动方面的鲁棒性。此外,我们展示了我们的方法在生成具有动态内容的三维旋转视频方面产生的令人印象深刻的结果。
Jun, 2024
通过引入 CamCo,我们为图像到视频生成器提供了精确参数化的相机姿态输入,通过 Plücker 坐标,以增强视频生成的 3D 一致性和相机控制能力,同时有效生成可信的物体运动。
Jun, 2024
该论文介绍了 MotionCtrl,这是一个用于视频生成的统一和灵活的运动控制器,通过有效和独立地控制相机运动和物体运动,实现更精细的运动控制和促进两种类型运动的灵活多样组合。
Dec, 2023
本研究提出了一种名为 VideoComposer 的图像合成模型,它能够通过文本、空间或时间条件实现对合成视频的控制,并且采用了运动向量和 STC 编码器等技术实现了高帧间一致性。
Jun, 2023
我们引入 Direct-a-Video,一个可以让用户独立指定一个或多个对象的运动和 / 或相机的移动,就像导演一个视频一样。通过使用模型的先验知识,我们提出了一种简单又有效的对象运动和相机移动解耦控制策略。我们还引入了新的时间交叉注意力层来解释定量的相机移动参数。通过在小规模数据集上自监督方式训练这些层,我们消除了显式运动注释的需求。我们的方法能够独立运作,并能够广泛适用于开放领域的场景。大量实验证明了我们方法的优越性和有效性。
Feb, 2024
我们提出了一种无需训练的视频运动转移模型 (COMD),通过将摄像机运动从源视频中分离并转移到新的视频中,实现了对摄像机运动的灵活控制。我们通过提出一种单次摄像机运动分离方法和少次摄像机运动分离方法,从单个源视频和多个具有相似摄像机运动的视频中提取摄像机运动。最后,我们提出了一种运动组合方法,将不同类型的摄像机运动结合起来,使我们的模型具有更加可控和灵活的摄像机控制。
Apr, 2024
我们提出了一个生成模型,根据粗略编辑的图片合成一个遵循预定布局的逼真输出,并从原始图像中转移细节,同时保留其部分的身份信息,并将其调整到由新布局定义的光照和上下文。
Mar, 2024
视频生成的研究最近取得了巨大的进展,使得高质量的视频可以从文字提示或图像中生成。为视频生成过程添加控制是一个重要的目标,并且最近的方法通过在相机轨迹上条件化视频生成模型来朝着这个目标迈进。然而,从多个不同相机轨迹生成相同场景的视频仍然具有挑战性。解决这个多视频生成问题可以实现可编辑相机轨迹的大规模三维场景生成等应用。我们引入了协作视频扩散(CVD)作为实现这一愿景的重要一步。CVD 框架包括一个新颖的跨视频同步模块,通过使用一个极线注意机制促进不同相机姿态下相同视频的对应帧之间的一致性。经过大量实验证明,在针对视频生成的最先进相机控制模块的基础上训练,CVD 生成的从不同相机轨迹渲染的多个视频比基准线具有显著更好的一致性。
May, 2024
在计算机视觉中,从静态图像生成逼真的动画视频是一个重要的研究领域。本文介绍了一种基于运动先验和视频扩散模型的开放领域可控图像动画方法,能够实现对可移动区域的运动方向和速度的精确控制,同时在保持内容、场景和动作协调一致性的同时生成长度超过 100 帧的长时间视频。
May, 2024
ControlVideo 是一种基于文本驱动扩散模型的、无需训练即可完成自然高效文本到视频生成,使用三个模块实现外观协调、帧插值以及分层采样,能够在轻松几分钟之内生成高质量的短视频和长视频。
May, 2023