DisControlFace: 个性化面部图像编辑的分离控制
DeepFaceEditing 是一种针对面部图像的结构解缠框架,旨在支持面部生成和编辑,具有几何和外表的解缠控制能力。该方法采用了局部到全局的方法,将面部组件图像分解为几何和外貌表示,并使用全局融合模块进行一致融合,以提高生成质量,并利用草图辅助提取更好的几何表示,同时也支持通过草图进行直观的几何编辑。该方法相较于最先进的方法表现出更优秀的细节和外观控制能力。
May, 2021
本文介绍了一个新颖的多模式人脸生成框架,能够同时进行身份 - 表情控制和更细粒度的表情合成,并通过创新设计在条件扩散模型中实现身份和表情的分别控制。实验证明了该框架在可控性和可扩展性上的优越性。
Jan, 2024
提出了一种基于生成对抗网络的端到端面部编辑器,通过该编辑器,可推断出具有内在面部属性的面部特定分离表示,包括形状(即法线),反射率和照明,同时呈现出阿尔法或透明度。通过应用物理图像形成模块和适当的损失函数进行 “野外” 图像训练得到的分解潜在表示允许使用语义相关的编辑,在保持正交属性不变的同时操纵面部外貌的一个方面,在许多面部编辑应用中得到了展示。
Apr, 2017
提供了一种细致的人脸操作方法,利用三维人脸模型和分离出质地和形状的方法进行纹理和形状不同表情的构建,进而通过生成网络和全连接网络实现表情的合成和准确形状的预测,获得了优越的结果,并被 85% 的用户优先选择,并且在 53% 的情况下,注释员无法可靠地区分合成的图像和真实图像的差别。
Feb, 2019
我们提出了一个具有明确控制 GAN 生成的图像的框架,借助于对抗性训练(GANs)、明确控制的潜在空间以及对人类的符号解释模型进行了对生成图像的控制,可扩展到人类脸谱以外的领域,实现了身份、年龄、姿态、表情、头发色彩和光照方面的控制,并且在画像和狗图像生成的领域中都展示了控制能力,同时表现出优良的定量和定性性能。
Jan, 2021
本文提出了一种基于前馈神经网络的人脸属性编辑方法,该方法可控制,转移和编辑野外人脸的多样属性,允许应用于人脸交换,光照转移和化妆品转移等多种应用。
Feb, 2021
本文介绍了 ConfigNet,这是一种神经人脸模型,它使用合成数据将潜空间分解为传统渲染管道的输入元素,从而实现对输出图像中的个别方面进行以语义有意义的方式控制,其中实际图像扩展了生成图像的多样性并鼓励真实性
May, 2020
本研究提出通过 StyleGAN 生成器的潜在空间编辑面部属性,通过训练专门的潜在空间转换网络并在损失函数中添加显式的分离和身份保存项来控制和保护身份,并介绍了一个将面部编辑推广到视频的流程。在真实图像和视频方面表现出出色的性能。
Jun, 2021
本论文提出了一种利用神经网络学习解开图像可控制性表示从而允许局部图像操作的方法,能够直接转移面部特定区域如眼睛、头发和嘴巴等部分的形状和颜色,而其他部位不变,通过使用定位的 ResNet 自编码器和几个损失函数进行训练,利用 CelebA 数据集检验了该方法的良好效果。
Aug, 2019