本论文提出了一种新颖的方法,根据自然语言描述操纵人物图像的视觉外观和姿态,并进行了广泛的实验以证明该方法的有效性。
Apr, 2019
本研究旨在从文本描述中生成多个人的自然和多样化的群体动作。我们利用大规模图像和视频数据集估计姿势信息,通过基于 Transformer 的扩散框架,实现了多个数据集中任意数量主题或帧的生成。实验证明,我们的方法是第一个能从多样的文本提示中生成高多样性和保真度的多主体运动序列的方法。
May, 2024
本研究提出一种新的双阶段训练方法,可利用易获得的数据集和预训练的 text-to-image(T2I)模型,生成可编辑和姿态可控的字符视频。这种方法成功地生成了连续的姿态可控字符视频,同时保持了预训练 T2I 模型的编辑和概念构成能力。
Apr, 2023
本文提出了一种基于新颖的深度生成模型的图像迁移方法,可以在保持服装一致的情况下将一个人的图像从一个给定的姿势转移至一个新的姿势,使用图像编码器、姿势编码器和解码器的结构,同时利用两个鉴别器来指导产生过程。经过严格的实验,在两个数据集上定量和定性地验证了该方法的效果。
Jun, 2019
本文介绍了一种基于模块化生成神经网络的方法,用来合成出一张人的图像并保证姿势、外貌和背景的一致性,其中包括了基于图像和动作的训练资料,以及对抗性判别器等技术来实现姿势合成,最终能够生成与动作类别准确匹配的图像,同时还可以将多个动作合成为视频。
Apr, 2018
通过自然语言反馈修正三维人体姿势以及生成纠正的三维人体姿势的文本编辑方法。
Sep, 2023
本文提出了一种新的姿态转换方法,通过使用组合神经网络,预测人的轮廓,服装标签和纹理,并在推理时利用训练有素的网络生成一个外观及其标签的统一表示,以对姿势变化做出响应,并使用背景完成外观的呈现,从而实现保留人物身份和外观,具有时间上的一致性和泛化能力。
Dec, 2020
本文提出了一种在 “野外” 环境中进行三维人体姿态估计的解决方案,通过生成大量的具有三维姿势标注的逼真合成图像,并使用这些图像对全身三维姿势进行端对端的卷积神经网络训练,成功地在受控环境(Human3.6M)中优于大多数已发表的作品,并在真实图像(LSP)中展现了有前途的结果。
Feb, 2018
本文提出了一种使用生成式对抗学习的新方法,用于综合产生任意姿势的具有照片级真实感的人物图像。研究通过无监督的方式来处理此问题,并且将其分解成两个主要子任务,一是姿势条件的双向生成器,二是定义一个新型的损失函数,包含内容和风格项,旨在生成高感知质量的图像,可以在 DeepFashion 数据集上进行广泛的实验验证。
Sep, 2018
提出了一种新的生成式对抗网络,用于姿势转移,其生成器由一系列姿势注意传输块组成,可以生成具有更好外观一致性和形状一致性的图像,此方法能够为人物重新识别生成训练图像,并提高具体实现的效率和有效性。