本文提出了一种基于深度学习的姿态引导的人类照片重新合成方法,它基于单张照片估计完整身体表面纹理,并使用一个新的修补方法将图像纹理转换为目标姿势视图。
Nov, 2018
本文提出了一种基于新颖的深度生成模型的图像迁移方法,可以在保持服装一致的情况下将一个人的图像从一个给定的姿势转移至一个新的姿势,使用图像编码器、姿势编码器和解码器的结构,同时利用两个鉴别器来指导产生过程。经过严格的实验,在两个数据集上定量和定性地验证了该方法的效果。
Jun, 2019
本文提出了一种新的姿态转换方法,通过使用组合神经网络,预测人的轮廓,服装标签和纹理,并在推理时利用训练有素的网络生成一个外观及其标签的统一表示,以对姿势变化做出响应,并使用背景完成外观的呈现,从而实现保留人物身份和外观,具有时间上的一致性和泛化能力。
Dec, 2020
本文提出了一个基于两级分层变形的自适应人体姿态转移网络,使用门控卷积动态选择图像的重要特征并逐层自适应变形,通过更少的参数快速收敛并在服装纹理转移等任务中获得更好的性能。
本文提出了一种基于单个图像的算法来重新渲染人物在各种姿态下的效果,并通过人体对称先验来学习插画对应关系,使用 StyleGAN 生成器控制外观和姿态,比现有技术表现更好
Sep, 2021
使用去噪扩散模型,我们提出了一种名为PIDM的人体图像扩散模型,解决了复杂的转换问题,并展示了在两个大型基准测试中的显着结果,以及如何在下游任务中使用生成的图像。
Nov, 2022
该研究论文提出了一种渐进条件扩散模型(PCDMs),通过三个阶段逐渐弥合目标姿势和源姿势下的人像之间的差距,并生成高质量、高保真的综合图像。
Oct, 2023
提出了一种新的粗粒度到细粒度潜在扩散方法,用于姿势引导的人物图像合成,并在DeepFashion基准上展示了其优越性。
Feb, 2024
通过引入粗糙到精细的注意掩蔽策略到视觉Transformer(ViT)中,我们提出了一个新的适配器模型Stable-Pose,以在生成图像时获得准确的姿势指导,并通过层级方式从粗糙到精细的过渡来提供一种对齐姿势表示的优化方式。
Jun, 2024
本研究解决了现有姿态引导人物图像合成方法在野外样本中表现不佳的问题,尤其是在标签三元组数据稀缺的情况下。我们提出了一种名为OnePoseTrans的新方法,通过引入视觉一致性模块(VCM),结合面部、文本和图像嵌入,实现了在仅有单张源图像的情况下的高质量姿态迁移结果。研究表明,该方法在保持外观一致性方面具有显著优势,定制模型的速度可达48秒。
Sep, 2024