该研究提出了一种新方法,可以通过输入视频实现人像视频的逼真的重新动画制作,在此过程中将源演员的全面影响转移到目标演员的画像上。
May, 2018
本文提出了一种基于姿态引导的方法来以可分离的方式合成人类视频:可信的运动预测和协调的外观生成,旨在探索并掌握视频合成中人体姿态的本质动态和诠释能力,并在保持外观连贯性的同时处理异常和嘈杂数据,实验证明其优于现有技术。
Jul, 2018
提出了一种新的生成式对抗网络,用于姿势转移,其生成器由一系列姿势注意传输块组成,可以生成具有更好外观一致性和形状一致性的图像,此方法能够为人物重新识别生成训练图像,并提高具体实现的效率和有效性。
Apr, 2019
我们提出了一个通用的人像生成任务的泛化方法,通过目标姿势和一组源外观图像生成一个人像,基于本地关注机制选择不同源图像区域的相关信息,避免了为每个特定的 X 基数构建特定生成器的必要性,并通过实证评估验证了在多源环境中解决人像生成问题的实用性。
May, 2019
本文提出一种不同于传统CNN的可微分全局流本地注意力框架来进行姿势引导的人体图像生成,该模型通过预测流场来进行全局相应,通过提取特征图中的局部补丁对局部注意力系数进行计算来生成新的人体图像,实验结果表明该方法优于传统方法,同时也适用于其他要求空间变换的任务。
Mar, 2020
本文介绍了一种基于结构感知流的方法,利用语义部分将人体分解,来应对人物姿态变换并生成高质量图像,网络模块能够有效地捕捉人体局部和全局语义特征,实验结果表明,该方法在生成高质量图像方面胜过其他方法。
Feb, 2021
提出了一种新颖的双重任务姿势变换网络(DPTN),它将源自重构任务和变换任务结合起来,通过姿态变换模块(PTM)和共享部分权重来实现源到目标的生成,从而有效地提升了纹理映射,优于现有方法。
Mar, 2022
提出了一种名为LEO的新颖方法,通过将运动表示为一系列流场图,在生成过程中固有地分离运动和外貌,从而强调时空一致性,并取得了比以前方法更好的人类视频合成效果。
May, 2023
本研究提出了一种基于循环姿态对齐和梯度引导的方法,可以生成具有真实外观和无瑕疵姿态转移的人物图像。经过广泛的实验证明,该方法能够在复杂场景下生成具有真实感的姿态转移,并且通过人工评测证明了其有效性。
Oct, 2023
提出了一种新的粗粒度到细粒度潜在扩散方法,用于姿势引导的人物图像合成,并在DeepFashion基准上展示了其优越性。
Feb, 2024