提出了一种新的 3D 可控脸部操作方法:3D-FM GAN,通过将输入脸部图像和 3D 编辑的真实渲染相结合,可以提供高质量、身份保留、3D 可控的脸部操作,相较于现有技术,具有更好的可编辑性、更强的身份保护和更高的照片逼真度。
Aug, 2022
通过将任务分为三个组成部分(即 3D GAN Inversion,Conditional Style Code Diffusion,3D Face Decoding),我们提出了一种名为 TEx-Face(文本和表情生成面部)的新方法,以实现高效和可控的生成逼真的 3D 面部模型。
Dec, 2023
通过在 3DMM 的深度图中采样生成的稳定扩散模型对人脸图像进行生成,利用丰富的 2D 面部信息提供 3D 空间信息,形成 SynthFace,并在此基础上训练的神经网络 ControlFace,在 NoW 基准测试上实现了竞争性能。
Jul, 2023
我们提出了一种新的方法,用于多模态条件下的三维人脸几何生成,可以通过多种不同的条件信号实现对输出身份和表情的用户友好控制。该方法基于扩散过程,在一个二维参数化的 UV 领域中生成三维几何形状,并通过交叉注意层 (IP-Adapter) 将每个调节信号传递给几何生成模型,提供细粒度的用户控制,产生具有高分辨率几何的易于使用的三维人脸生成工具。
Jul, 2024
本文提出了一种基于 NeRF 的条件生成 3D 人脸合成框架,该框架能够通过从 3D 脸部先验中强制显式的 3D 条件生成可控制性高保真面部图像,并且比现有的基于 2D 的可控制性合成方法具有更精确的 3D 可控制性。
Jun, 2022
该研究使用预定义的控制参数来调节生成过程,进而产生了一种具有参数控制的生成式人脸模型 GIF,它结合了 3D 主题的控制和 GANs 的高保真生成,经过感知研究得出 GIF 表现良好。
Aug, 2020
本文提出了一种新颖的端到端 3D 感知图像生成和编辑模型,通过纯噪声、文本和参考图像等多种条件输入,在 3D 生成对抗网络(GANs)的潜在空间中深入研究并提出解缠特性较好的生成策略,同时采用统一框架进行灵活的图像生成和编辑任务,实现多模态条件下的多样图像生成、属性编辑和风格迁移。广泛实验证明,该方法在图像生成和编辑方面在质量和数量上均优于替代方法。
Mar, 2024
本文提出使用 2D 生成模型加上面部特征操作来创造 3D 可控制生成人脸模型的方法,可进行文本编辑、样式编辑和生成精确的 3D 形状和更高质量的色彩。
Apr, 2023
通过对抗性学习和比较对生成的图像进行区分,利用控制潜在变量的方式实现虚拟人脸图像的生成
Apr, 2020
我们介绍了一种基于 3D 生成对抗网络(GAN)和潜在扩散模型(LDM)的多模态条件的 3D 头像生成和编辑方法。我们的方法可以根据混合控制信号(例如 RGB 输入,分割掩模和全局属性)生成和编辑 3D 头像,从而在全局和局部方面提供对合成头像的更好控制。
Feb, 2024