CamCo:可控相机的三维一致的图像到视频生成
我们提出了一种无需训练且稳健的解决方案,为现成的视频扩散模型提供摄像机运动控制。我们的方法不同于以前的工作,不需要在带有摄像机注释的数据集上进行有监督的微调或通过数据增强进行自监督训练。相反,它可以与大多数预训练的视频扩散模型插入和播放,并且只需一个图像或文本提示作为输入即可生成可控摄像机的视频。我们的工作灵感来自于中间隐藏变量对生成结果的布局先验,因此重新排列其中的噪点像素将重新分配输出内容。由于摄像机移动也可以被视为透视变化引起的像素重新排列,如果它们的噪点隐藏变量相应改变,视频可以按照特定的摄像机运动进行重新组织。基于此,我们提出了我们的方法 CamTrol,实现了对视频扩散模型的稳健摄像机控制。这通过两个阶段的过程实现。首先,我们在三维点云空间中建模图像布局重新排列通过显式摄像机运动。其次,我们使用一系列重新排列的图像形成的噪点隐藏变量的布局先验生成具有摄像机运动的视频。广泛的实验证明了我们的方法在控制生成视频的摄像机运动方面的鲁棒性。此外,我们展示了我们的方法在生成具有动态内容的三维旋转视频方面产生的令人印象深刻的结果。
Jun, 2024
本研究介绍了 CameraCtrl 模型,通过精确控制相机姿态来实现对 T2V 模型的准确控制,研究结果表明,多样的相机分布和相似的外观确实提高了可控性和泛化性,这一成果在实现从文本和相机姿态输入到动态定制视频叙事方面迈出了一步。
Apr, 2024
通过将三维相机运动作为调节信号,我们扩展了多模态变压器以实现视频生成任务。我们提出通过在生成的视频中,将虚拟三维相机控制添加到生成视频方法中。结果表明,我们能够成功控制相机进行视频生成,从一个单一帧和相机信号开始,并通过传统计算机视觉方法证明了生成的三维相机路径的准确性。
May, 2024
视频生成的研究最近取得了巨大的进展,使得高质量的视频可以从文字提示或图像中生成。为视频生成过程添加控制是一个重要的目标,并且最近的方法通过在相机轨迹上条件化视频生成模型来朝着这个目标迈进。然而,从多个不同相机轨迹生成相同场景的视频仍然具有挑战性。解决这个多视频生成问题可以实现可编辑相机轨迹的大规模三维场景生成等应用。我们引入了协作视频扩散(CVD)作为实现这一愿景的重要一步。CVD 框架包括一个新颖的跨视频同步模块,通过使用一个极线注意机制促进不同相机姿态下相同视频的对应帧之间的一致性。经过大量实验证明,在针对视频生成的最先进相机控制模块的基础上训练,CVD 生成的从不同相机轨迹渲染的多个视频比基准线具有显著更好的一致性。
May, 2024
CoMo 是一种可控运动生成模型,通过利用大型语言模型的先验知识,在准确生成和编辑动作方面表现出色。它将动作分解为离散且语义上有意义的姿势代码,每个代码都包含身体部位的语义信息,如 “左膝稍微弯曲”。通过调整姿势代码,CoMo 可以实现直接干预动作编辑。实验证明,与最先进的模型相比,CoMo 在运动生成方面具有竞争力,在人体研究中,CoMo 在动作编辑能力方面远远超过以前的工作。
Mar, 2024
提出了一种从单张图像生成视频资产的方法,通过 Image Conductor 实现了摄像机转换和物体移动的精确控制,并通过训练策略、引导技术和数据处理流程进一步改进,展示了在交互式视频合成中实现精准控制的效果。
Jun, 2024
本研究提出了一种名为 VideoComposer 的图像合成模型,它能够通过文本、空间或时间条件实现对合成视频的控制,并且采用了运动向量和 STC 编码器等技术实现了高帧间一致性。
Jun, 2023
我们引入 Direct-a-Video,一个可以让用户独立指定一个或多个对象的运动和 / 或相机的移动,就像导演一个视频一样。通过使用模型的先验知识,我们提出了一种简单又有效的对象运动和相机移动解耦控制策略。我们还引入了新的时间交叉注意力层来解释定量的相机移动参数。通过在小规模数据集上自监督方式训练这些层,我们消除了显式运动注释的需求。我们的方法能够独立运作,并能够广泛适用于开放领域的场景。大量实验证明了我们方法的优越性和有效性。
Feb, 2024
我们提出了一种无需训练的视频运动转移模型 (COMD),通过将摄像机运动从源视频中分离并转移到新的视频中,实现了对摄像机运动的灵活控制。我们通过提出一种单次摄像机运动分离方法和少次摄像机运动分离方法,从单个源视频和多个具有相似摄像机运动的视频中提取摄像机运动。最后,我们提出了一种运动组合方法,将不同类型的摄像机运动结合起来,使我们的模型具有更加可控和灵活的摄像机控制。
Apr, 2024
ControlVideo 是一种基于文本驱动扩散模型的、无需训练即可完成自然高效文本到视频生成,使用三个模块实现外观协调、帧插值以及分层采样,能够在轻松几分钟之内生成高质量的短视频和长视频。
May, 2023