面部图像和视频的解缩聚变换器
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
我们提出了一种自编码器方法,通过重新组织 StyleGAN 的潜空间,使我们希望编辑的每个属性对应于新潜空间的一个轴,同时确保潜空间轴之间的相关性降到最低,以促进属性解缠,通过实验证明了我们的方法在编辑能力上超越了竞争方法,同时在保持图像身份一致性方面与原始图像具有高度的准确性,我们的自编码器结构简单明了,易于实现。
Dec, 2023
本论文提出了一种名为 AdaTrans 的自适应非线性潜空间转换方法,可用于面部编辑过程中的解耦和有条件的编辑,能够实现面部特征的分离、非二元属性的编辑,具有高保真度,并能够消除属性之间的纠缠。
Jul, 2023
本文提出一种基于 GAN 模型的高分辨率人脸交换方法,通过显式地将潜在空间的语义进行分离,并通过引入基于地标的结构转换潜在方向来分离结构属性中的身份和姿态信息,进而获得丰富的生成特征。通过加入空间 - 时间约束,将这种方法进一步扩展到视频人脸交换,并在实验证明,该方法在幻觉质量和连续性方面优于现有方法。
Mar, 2022
提出了一种基于生成对抗网络的端到端面部编辑器,通过该编辑器,可推断出具有内在面部属性的面部特定分离表示,包括形状(即法线),反射率和照明,同时呈现出阿尔法或透明度。通过应用物理图像形成模块和适当的损失函数进行 “野外” 图像训练得到的分解潜在表示允许使用语义相关的编辑,在保持正交属性不变的同时操纵面部外貌的一个方面,在许多面部编辑应用中得到了展示。
Apr, 2017
本文提出了一种基于局部属性编辑的新方法 MaskFaceGAN,采用最先进的生成对抗网络(StyleGAN2)的潜在编码进行优化,通过不同 iable 的属性分类器和面部解析器执行多个约束条件,实现对人脸图像的局部面部属性进行编辑,达到了极高的图像质量,在 1024x1024 的高分辨率下进行编辑,而且相对于现有的竞争性解决方案,其属性交错问题更少。
Mar, 2021
本文介绍了一种基于 StyleGAN 生成器和学习到的注意力图的方法,通过在编辑图像时使用注意力图作为掩蔽层,同时使用 CLIP 算法来引导潜空间的编辑,实现对面部局部区域的控制性编辑。实验结果表明,与其他替代方法相比,我们的方法可以实现非常可控的面部区域编辑,具有更好的性能。
Feb, 2022
本文提出了一种新的框架 (IALS),它利用来自一组对输入图像评估的属性分类器的监督来注入实例信息,通过执行实例感知潜空间搜索来找到解耦属性编辑的语义方向,并提出了一种 “DT” 度量来量化属性转换和解耦功效,并基于它找到属性级和实例级方向之间的最优控制因子。
May, 2021
通过将 TypeIVBasicCard-B(T - 基本卡 - B)上的 TypeI 基本卡 - B(T - 基本卡 - B)与 TypeI 机读卡 - B(T - 机读卡 - B)及 TypeI 机读卡基础数据 - B(T - 基础数据机读卡 - B)结合设置在 TypeIV-B(T - 基本卡 - B)上,可按材料基础建立既定基本卡 - B(T - 既定基本卡 - B);通过在 TypeIV-B(T - 基本卡 - B)上设置 TypeII 证件單位 - B(T - 证件單位 - B)及 TypeIII 办事处 - B(T - 办事处 - B),可在已有证件基本卡 - B(T - 证件基本卡 - B)填写办证所需信息后,通过已有证件基本卡 - B(T - 办证所需信息 B)向申请人提出开户要求,并通过设置 T - 证件基本卡 - B 展示及更新申请人概述 - B(T - 展示及更新申请人概述 - B)的一系列选定项 (B),实现无法更新已有证件文件申请人开户要求。
Sep, 2023
本文提出了一种基于 Transformer 的框架 TransEditor 以及新的双空间编辑和倒置策略,用于高度可控的面部编辑,实验证明该框架在图像质量和编辑能力上具有优越性。
Mar, 2022