Niv Haim, Ben Feinstein, Niv Granot, Assaf Shocher, Shai Bagon...
TL;DR本文提出了非参数基线方法来解决单个视频生成及操作任务,相较于传统的基于 GAN 的方法能提供更高的性能和更快的运行速度,并且在视频类比和时空重新定位等方面表现突出。
Abstract
gans are able to perform generation and manipulation tasks, trained on a
single video. However, these single video gans require unreasonable amount of
time to train on a single video, rendering them almost imprac
本文提出了一种基于风格条件的视频生成模型,其中引入了一种基于学习的正弦基的新颖时态生成器,学习到的动态表示独立于图像内容,可以在不同的演员之间进行传递。除了显著提高视频质量相比普遍方法外,我们还证明了解离的动态和内容使它们能够进行独立操作,以及通过时态 GAN 反演从一个内容或身份中提取和传递视频动作而无需进一步的预处理,如关键点。
本文提出了一种生成式模型 Temporal Generative Adversarial Nets(TGAN),用于学习未标记视频的语义表示,并能够生成视频。我们的模型利用两种不同类型的生成器:时间生成器和图像生成器,解决了利用现有的基于 GAN 的方法生成视频时存在的问题。为了稳定训练,我们采用了最近提出的 Wasserstein GAN 模型,并提出了一种稳定的端到端训练方法。实验结果表明了我们方法的有效性。