CVPRJun, 2021

理解物体动态:交互式图像到视频合成

TL;DR本文介绍了一种使用局部操纵来学习自然外观的全局关节,训练只需要移动物体的视频,而不需要了解物理场景底层的操纵。通过学习物体动力学的生成模型,响应用户互动,并了解相互关联的不同物体部位,该方法预测了静态图像和像素局部操纵后物体弯曲的时间变化,并实现了变形的局部交互控制,可针对不同类型的物体进行转移。与现有的视频预测相比,我们的模型不合成任意逼真的视频,而是提供对变形的局部交互控制。通过对不同物体的广泛实验,证明了我们的方法相比于常见的视频预测框架的有效性。