合成人类不常见的姿势图像
本文提出了一种使用生成式对抗学习的新方法,用于综合产生任意姿势的具有照片级真实感的人物图像。研究通过无监督的方式来处理此问题,并且将其分解成两个主要子任务,一是姿势条件的双向生成器,二是定义一个新型的损失函数,包含内容和风格项,旨在生成高感知质量的图像,可以在 DeepFashion 数据集上进行广泛的实验验证。
Sep, 2018
本文提出了一种新的姿态转换方法,通过使用组合神经网络,预测人的轮廓,服装标签和纹理,并在推理时利用训练有素的网络生成一个外观及其标签的统一表示,以对姿势变化做出响应,并使用背景完成外观的呈现,从而实现保留人物身份和外观,具有时间上的一致性和泛化能力。
Dec, 2020
本文提出了一种在 “野外” 环境中进行三维人体姿态估计的解决方案,通过生成大量的具有三维姿势标注的逼真合成图像,并使用这些图像对全身三维姿势进行端对端的卷积神经网络训练,成功地在受控环境(Human3.6M)中优于大多数已发表的作品,并在真实图像(LSP)中展现了有前途的结果。
Feb, 2018
本文提出了一种基于新颖的深度生成模型的图像迁移方法,可以在保持服装一致的情况下将一个人的图像从一个给定的姿势转移至一个新的姿势,使用图像编码器、姿势编码器和解码器的结构,同时利用两个鉴别器来指导产生过程。经过严格的实验,在两个数据集上定量和定性地验证了该方法的效果。
Jun, 2019
本文提出了一种基于姿态引导的方法来以可分离的方式合成人类视频:可信的运动预测和协调的外观生成,旨在探索并掌握视频合成中人体姿态的本质动态和诠释能力,并在保持外观连贯性的同时处理异常和嘈杂数据,实验证明其优于现有技术。
Jul, 2018
本文提出了一种新方法,称为 StylePoseGAN,用于合成具有姿势和部位外观显式控制的照片真实感的人类图像,并能够将其用于虚拟换装、动作模仿和新视角合成等应用中。
Feb, 2021
本研究旨在通过人体姿态空间的采样和真实图像纹理的提取,建立一个全自动,可扩展的方法来合成姿态注释的图像,从而为 3D 姿态估计任务提供合成培训数据,最终证明 CNNs 在合成图像上训练可以在 3D 姿态估计任务上胜过在真实照片上训练。
Apr, 2016
本文提出了使用由 3D 运动捕捉数据生成的合成真实人形图像的大规模数据集 (SURREAL) 来训练卷积神经网络 (CNNs),并且通过该数据集训练的 CNNs 在 RGB 图像中可以准确地进行人物深度估计和人物部分分割。
Jan, 2017
我们提出了一种人体姿态模型,可表示与服装纹理、背景、光线条件、身体形状和摄像机视点无关的 RGB 和深度图像。通过开发一个综合训练数据的框架,我们学习了 CNN 模型并使用它们从真正的 RGB 和深度帧的人体动作视频中提取不变特征。在三个基准跨视图人体动作数据集的实验中,我们的算法在 RGB 和 RGB-D 动作识别方面明显优于现有方法。
Jul, 2017
本文提出了一种基于单个图像的算法来重新渲染人物在各种姿态下的效果,并通过人体对称先验来学习插画对应关系,使用 StyleGAN 生成器控制外观和姿态,比现有技术表现更好
Sep, 2021