逐步姿态注意力转移用于人像生成
本论文提出了新颖的姿势引导人物生成网络(PG2),该网络可以基于人的图像和新颖的姿态来合成人体图像。PG2 的生成框架明确利用了姿势信息,并包含两个关键阶段:姿势整合和图像细化。实验表明,该模型可以生成高质量、具有令人信服细节的人体图像。
May, 2017
本文提出了一种使用生成式对抗学习的新方法,用于综合产生任意姿势的具有照片级真实感的人物图像。研究通过无监督的方式来处理此问题,并且将其分解成两个主要子任务,一是姿势条件的双向生成器,二是定义一个新型的损失函数,包含内容和风格项,旨在生成高感知质量的图像,可以在 DeepFashion 数据集上进行广泛的实验验证。
Sep, 2018
该研究提出了一种新颖的生成对抗网络 (XingGAN),用于人物图像生成任务,即将给定人物的姿势转换为所需的姿势。该方法使用两个生成分支建模人物的外观和形状信息,并利用交叉的方式更新这些信息以相互提高。实验表明,该方法在两个具有挑战性的数据集上的性能比现有的图像生成方法均有所提高。
Jul, 2020
本文介绍了一种基于结构感知流的方法,利用语义部分将人体分解,来应对人物姿态变换并生成高质量图像,网络模块能够有效地捕捉人体局部和全局语义特征,实验结果表明,该方法在生成高质量图像方面胜过其他方法。
Feb, 2021
提出一种新颖的多层次统计转移模型,通过注意力机制和属性统计学习最优的外貌表示,将其传输到姿势引导生成器进行外貌和姿势的重构,从而实现自主驱动的人物图像生成,实验证明该方法在 DeepFashion 数据集上表现出色。
Nov, 2020
本文提出了一种基于新颖的深度生成模型的图像迁移方法,可以在保持服装一致的情况下将一个人的图像从一个给定的姿势转移至一个新的姿势,使用图像编码器、姿势编码器和解码器的结构,同时利用两个鉴别器来指导产生过程。经过严格的实验,在两个数据集上定量和定性地验证了该方法的效果。
Jun, 2019
本文提出了一个基于两级分层变形的自适应人体姿态转移网络,使用门控卷积动态选择图像的重要特征并逐层自适应变形,通过更少的参数快速收敛并在服装纹理转移等任务中获得更好的性能。
Dec, 2020