PoNA: 基于姿态引导的非局部注意力人体姿态转移
本论文提出了新颖的姿势引导人物生成网络(PG2),该网络可以基于人的图像和新颖的姿态来合成人体图像。PG2的生成框架明确利用了姿势信息,并包含两个关键阶段:姿势整合和图像细化。实验表明,该模型可以生成高质量、具有令人信服细节的人体图像。
May, 2017
研究使用表面模型建模、神经综合、稠密姿态估计、生成模型等方法,实现人像姿态转换,获得优于 DeepFashion 和 MVC 数据集上基于标记或字符的替代方案的性能提升。
Sep, 2018
本研究旨在通过限定人体的粗略轮廓并控制特定服装类型实现真实人体图像的完整生成建模。我们提出了一种端到端可训练的生成式对抗网络架构,它提供了细节控制来生成具有高逼真度的图片,同时无需成对的训练数据,不必拟合 3D 姿势到 2D 图像的困难问题。该模型允许对基于目标领域的图像或标记特定的类别样式(例如 T 恤)进行条件生成。我们对该架构和每个独立要素的贡献进行了充分的实验评估,并通过大规模知觉研究表明,我们的方法可以生成逼真的图像,并且如果面部被模糊化,参与者很难识别真实的图片和虚假的图片之间的区别。
Jan, 2019
提出了一种新的生成式对抗网络,用于姿势转移,其生成器由一系列姿势注意传输块组成,可以生成具有更好外观一致性和形状一致性的图像,此方法能够为人物重新识别生成训练图像,并提高具体实现的效率和有效性。
Apr, 2019
利用残差学习的方法,结合有效的数据增强技术,提出一种简单而有效的姿态转换GAN,在不需使用额外功能学习的情况下,在任意姿态下生成给定的人体图像。该方法在两个大型数据集上展现出比现有方法更优越的性能,实现了在光照、遮挡、失真和尺度方面的鲁棒性。
Jan, 2020
提出一种新颖的多层次统计转移模型,通过注意力机制和属性统计学习最优的外貌表示,将其传输到姿势引导生成器进行外貌和姿势的重构,从而实现自主驱动的人物图像生成,实验证明该方法在DeepFashion数据集上表现出色。
Nov, 2020
本研究设计了一种人类图像生成的生成模型,能够控制姿势,不同身体局部的外貌以及服装风格,能够生成高逼真度的图像,并在不同方面表现出色,如姿态控制、部位和服装转移以及关节采样。
Mar, 2021
本文提出了一种无监督的方法,使用新颖的IEP-GAN模型实现了任意给定3D网格之间的姿态转移,包括人体、动物和手等各种数据集,并展示了使用该模型进行姿态转移、身份交换和姿态插值的可能性。
Aug, 2021
该研究提出了一种基于多头注意力机制和部位分离综合的人体图像合成方法,该方法能够更好地在保持风格的情况下实现从一种姿势转换到另一种姿势,并且在Market-1501和DeepFashion数据集上表现良好。
Oct, 2022
本文提出了一种名为3DHumanGAN的生成对抗网络(GAN),用于合成全身人体的图像,具有在不同视角和姿势下一致的外观。该模型采用了2D卷积背骨由3D姿态映射网络调制的生成器架构,能够生成具有3D人体先验知识和一致性的逼真图像,并通过对抗学习从网络图片中学习而来。
Dec, 2022