本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
我们的研究侧重于探索生成性面部图像编辑中明确的细粒度控制,同时生成忠实和一致的个性化面部外貌。我们确定了这项任务的关键挑战是在生成过程中对解缠条件控制的探索,并相应地提出了一种新的基于扩散的框架,称为 DisControlFace,包括两个解耦的组件。
Dec, 2023
本研究提出了一种基于二阶段重建管道的方法来生成真实但新颖的人物图像,该方法利用解耦表示学习各种图像因素,并同时生成新的人物图像,实验结果表明该方法不仅能够生成具有新前景、背景和姿态的逼真人物图像,还能用于人物再识别任务。
Dec, 2017
MOST-GAN 使用 3D 形态模型耦合现代化 2D 变形网络实现面部图像生成、控制和逼真操作。
Nov, 2021
本文提出了一种基于 3D 生成模型的非刚性可变形场景表达方法,通过联合学习规范模型及其变形,并使用姿态正则化损失来改善模型的场景与摄影视角的分离性,同时还可以嵌入真实图像中并进行编辑。
Mar, 2022
本研究提出了一种新方法,使用对比学习和潜在编码来进行前景生成,实现了明确控制各种因素,获得多样性和可控性的生成结果,比现有技术更优秀。
Nov, 2022
我们提出了一个具有明确控制 GAN 生成的图像的框架,借助于对抗性训练(GANs)、明确控制的潜在空间以及对人类的符号解释模型进行了对生成图像的控制,可扩展到人类脸谱以外的领域,实现了身份、年龄、姿态、表情、头发色彩和光照方面的控制,并且在画像和狗图像生成的领域中都展示了控制能力,同时表现出优良的定量和定性性能。
Jan, 2021
提出了一种新的 3D 可控脸部操作方法:3D-FM GAN,通过将输入脸部图像和 3D 编辑的真实渲染相结合,可以提供高质量、身份保留、3D 可控的脸部操作,相较于现有技术,具有更好的可编辑性、更强的身份保护和更高的照片逼真度。
Aug, 2022
提供了一种细致的人脸操作方法,利用三维人脸模型和分离出质地和形状的方法进行纹理和形状不同表情的构建,进而通过生成网络和全连接网络实现表情的合成和准确形状的预测,获得了优越的结果,并被 85% 的用户优先选择,并且在 53% 的情况下,注释员无法可靠地区分合成的图像和真实图像的差别。
Feb, 2019
本文提出了一种名为 DRL-CPG 的新框架,用于学习可控人物图像生成的分离潜在表示,通过使用 transformer 编码器和属性解码器来实现形状和纹理的转换,实现了产生具有所需姿势和人体属性(例如姿势,头部,上衣和裤子)的逼真人物图像的目标。