RSGAN:在潜空间中使用面部和头发表示进行面部交换和编辑
本文提出了一种基于 StyleGAN 的自适应潜在表示学习的高分辨率人脸交换框架,通过多任务双空间人脸编码器和自适应潜在编码交换模块来实现面部感知和融合,从而提高人脸交换的真实性和广泛适用性,并证明了该方法优于现有的最先进方法。
Mar, 2023
本文提出了一种基于 GAN 的脸部交换和演绎方法,其中采用了 RNN 和 Delaunay Triangulation 来进行脸部再现,并使用 Poisson blending loss 来实现融合。与现有技术相比,本方法在定性和定量方面均有更好的表现。
Aug, 2019
本文提出一种基于 GAN 模型的高分辨率人脸交换方法,通过显式地将潜在空间的语义进行分离,并通过引入基于地标的结构转换潜在方向来分离结构属性中的身份和姿态信息,进而获得丰富的生成特征。通过加入空间 - 时间约束,将这种方法进一步扩展到视频人脸交换,并在实验证明,该方法在幻觉质量和连续性方面优于现有方法。
Mar, 2022
本文提出使用 Semi-Latent Facial Attribute Space (SL-FAS) 和 SL-GAN 模型学习人脸图像生成和修改,通过实验验证了该模型的有效性,并提出迭代训练算法。
Apr, 2017
本研究提出了一种基于深度学习的面部交换生成对抗网络(FSGAN),用于面部交换和活体重放,包括一种新颖的迭代深度学习方法,可用于面部活体重放,采用重建三角形和重心坐标的方法连续插值,使用面部补全网络处理被遮挡的面部区域,最终采用一种新型泊松混合损失融合两张面孔并保持目标肤色和照明条件。
Feb, 2022
本文介绍了一种新的面部交换方法,称为 “编辑式交换”(E4S),通过精细的面部编辑实现。我们提出了区域 GAN 反演(RGI)方法,可以显式地解开形状和纹理的复杂性,并通过样式和掩码交换简化了面部交换。此外,我们还提出了一种重新着色网络来保持目标脸上的光照条件,并通过面部修复网络进行后处理。与最先进的方法进行了广泛比较,证明了我们的 E4S 在保持纹理、形状和光照方面的优越性。
Oct, 2023
本文提出了一个名为 InterFaceGAN 的新框架,用于解释 GAN 学习到的语义面部编辑,并深入研究不同语义如何编码在 GAN 的潜在空间中。我们发现,精心训练的生成模型的潜在编码实际上学习了一个分离的表示,在线性变换后解旋,通过子空间投影来解开某些绑定属性,实现更精确的面部特征控制,并产生可控的面部属性表示的结果表明 GAN 具有生成高保真图像的能力。
Jul, 2019
通过一个创新的端到端框架,我们提出了一种高保真度的面部交换方法,其中使用了深度学习方法中的生成对抗网络(GANs)作为基础,通过面部属性编码器、基于注意力的样式混合模块和样式解码器等多个模块,解决了以往面部交换方法中的混合不一致、失真、伪影和训练稳定性等问题。我们在 CelebA-HQ 数据集上进行了大量实验,与其他先进方法相比,我们的面部交换方法生成的图像具有更高的视觉质量,并且每个提出的模块都显著有效。源代码和权重将公开提供。
Dec, 2023
本文提出了一种基于局部属性编辑的新方法 MaskFaceGAN,采用最先进的生成对抗网络(StyleGAN2)的潜在编码进行优化,通过不同 iable 的属性分类器和面部解析器执行多个约束条件,实现对人脸图像的局部面部属性进行编辑,达到了极高的图像质量,在 1024x1024 的高分辨率下进行编辑,而且相对于现有的竞争性解决方案,其属性交错问题更少。
Mar, 2021
本研究提出了一种基于 ' 编辑以交换 ' 范式的人脸真实交换框架,通过局部和全局交换面部特征和用户指定的部分交换控制,实现了面部几何和纹理细节的高保真性保留,同时应用了多项技术包括分离面部构件的纹理和形状信息、利用区域 GAN 反演的联合编码和注入来实现对交换细节的精细控制。在对比实验中展示了本方法在高分辨率图像上有效性及纹理保留优势。
Nov, 2022