利用物体运动预测实现未来视频合成
本研究提出了一种基于场景物体的运动特征的像素级未来预测方法,采用隐式预测物体的未来状态并考虑它们之间的相互作用,通过全局轨迹水平的潜在随机变量对任务多模态进行克服,并在两个数据集上进行了实证验证。
Aug, 2019
通过对视频场景内容及动态规律、语义等方面的先验知识进行分析和预处理,提出一种利用贝叶斯网络解决视频不同场景中的移动轨迹问题的方法,并在实验中证明了其有效性。
Mar, 2016
本文提出了一个两阶段的生成框架来解决图像到视频转换的问题,其中视频从结构生成并通过时间信号进行调整。通过在面部表情重定位和人体姿势预测这两个任务中取得比现有方法优秀的结果,证明了我们方法的有效性。
Jul, 2018
该研究介绍了一种通过给定外观和运动条件生成未来图像的方法,在条件不确定性下有着很好的表现,通过开发创新的条件方案,结合对外观和动作的识别,能够更好地进行视频预测,已在面部表情和人类动作数据集上进行了验证。
Jul, 2018
本文提出了一种基于无监督方法的视频帧预测技术,相比直接预测未来帧中每个像素点,本文预测未来帧的变换过程,同时提出了一种新的评估协议,该方法在 UCF-101 数据集上进行了验证,在参数和计算成本上更加高效。
Jan, 2017
使用 GaussianPrediction 框架,结合 3D Gaussian 表示法、动态场景建模和未来场景合成等技术,实现对动态环境中未来状态的预测和渲染。
May, 2024
本文提出了一个新的模型来同时预测未来视频帧中的场景分析和光流估计。通过将场景分析和光流估计相结合,我们的模型在大规模数据集 Cityscapes 上显示出了显着更好的解析和运动预测结果。此外,我们还展示了我们的模型可以预测车辆的转向角度,从而进一步验证了我们的模型学习场景动态的潜在表示的能力。
Nov, 2017