MetaPix: 少样本视频重定向
本研究提出了一种少样本 vid2vid 前景图像生成模型,利用注意力机制生成网络权重,从而实现对以前未见过的目标进行视频生成。在多个大规模视频数据集上的实验证实了该方法的有效性。
Oct, 2019
我们提出了一个生成模型,根据粗略编辑的图片合成一个遵循预定布局的逼真输出,并从原始图像中转移细节,同时保留其部分的身份信息,并将其调整到由新布局定义的光照和上下文。
Mar, 2024
使用人脸先验信息的新方法,通过对源面部解析并对其几何形状进行正则化,可以在可接受的带宽下生成带有改善的语义一致性和表情保持的面部视频,并实现高度可控的姿态和表情生成。
Apr, 2023
本文提出一种轻量级的视频动作转移方法 TransMoMo,可以无需配对数据进行监督训练,利用三个正交变化因子的不变性特征进行无监督学习,采用自编码器训练这些因子的潜在表示,从而从源视频中提取的运动得到无缝传输到目标视频中,达到了与最先进方法相互竞争的效果。
Mar, 2020
本文提出了一个两阶段的生成框架来解决图像到视频转换的问题,其中视频从结构生成并通过时间信号进行调整。通过在面部表情重定位和人体姿势预测这两个任务中取得比现有方法优秀的结果,证明了我们方法的有效性。
Jul, 2018
本文旨在提出一种基于元学习的有效的实现少样本迁移学习的方法,该方法使用局部视觉线索学习表示,以在具有不同场景和动作配置的公共数据集之间进行行为分类模型的迁移。结果表明,该方法在跨类别和跨数据集转移方面效果优于现有的行为分类方法。
Jul, 2019
本研究提出了一种使用元学习技术从人类视频中进行一次学习的方法,使机器人能够学习从人类示范中执行任务,无需对人类动作进行特定设计,并且在多种任务上演示了机器人实现的能力。
Feb, 2018
该论文介绍了一种数据驱动的无监督视频重定向方法,它可以将一个领域的内容转化为另一个领域的内容,并保留原本领域的风格和特性,它将空间和时间信息与对抗损失相结合,用于内容转换和风格保护,尤其适用于时空转换等应用。
Aug, 2018