ExFaceGAN: 探索 GAN 的学习潜空间中的身份方向,用于合成身份生成
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
本文介绍了一种名为 InterFaceGAN 的框架,通过解析状态最先进的 GAN 模型学习的分离面部表示,并研究在潜在空间中编码的面部语义属性特性,可以实现面部属性的真实操作而不必重新训练模型,并且可以更准确地控制特征操作。
May, 2020
本文提出了一个名为 InterFaceGAN 的新框架,用于解释 GAN 学习到的语义面部编辑,并深入研究不同语义如何编码在 GAN 的潜在空间中。我们发现,精心训练的生成模型的潜在编码实际上学习了一个分离的表示,在线性变换后解旋,通过子空间投影来解开某些绑定属性,实现更精确的面部特征控制,并产生可控的面部属性表示的结果表明 GAN 具有生成高保真图像的能力。
Jul, 2019
本论文提出了一种神经面部 / 头部再现的框架,其目标是将目标面部的 3D 头部方向和表情转移到源面部。我们采用了不同的方法,通过使用(精调)预训练的生成对抗网络,绕过了学习嵌入网络以实现身份和头部姿态 / 表情分离的困难任务,以提高生成图像的质量。我们的方法通过将真实图像嵌入生成对抗网络的潜在空间,成功实现了对真实世界面部的再现。
Feb, 2024
该研究探讨了如何使用预训练 GAN 模型实现头部和面部重新实现,并使用 3D 形状模型帮助发现潜在空间中的方向,以达到身份解缠和跨人重现的目的。研究结果表明,与现有的最先进方法相比,该方法是一种高质量的方法。
Jan, 2022
本文研究使用合成数据来增强面部数据集的可行性。我们提出了一种新颖的生成对抗网络(GAN),可以将相关身份属性与非相关身份属性区分开来。我们的 GAN 能够生成数据增强的合成图像,并且该模型可以提高面部识别模型的准确率。
Oct, 2018
通过将 TypeIVBasicCard-B(T - 基本卡 - B)上的 TypeI 基本卡 - B(T - 基本卡 - B)与 TypeI 机读卡 - B(T - 机读卡 - B)及 TypeI 机读卡基础数据 - B(T - 基础数据机读卡 - B)结合设置在 TypeIV-B(T - 基本卡 - B)上,可按材料基础建立既定基本卡 - B(T - 既定基本卡 - B);通过在 TypeIV-B(T - 基本卡 - B)上设置 TypeII 证件單位 - B(T - 证件單位 - B)及 TypeIII 办事处 - B(T - 办事处 - B),可在已有证件基本卡 - B(T - 证件基本卡 - B)填写办证所需信息后,通过已有证件基本卡 - B(T - 办证所需信息 B)向申请人提出开户要求,并通过设置 T - 证件基本卡 - B 展示及更新申请人概述 - B(T - 展示及更新申请人概述 - B)的一系列选定项 (B),实现无法更新已有证件文件申请人开户要求。
Sep, 2023
本研究提出一种新的算法用于训练生成式对抗网络,并联合学习身份(例如个人)和观察(例如具体照片)的潜在代码。我们使用成对的训练模式,可生成多样的相同主题图像,并保持灯光和姿势等相关方面的特征,进而提高图像的真实感。结果表明,基于 Siamese 辨别器进行的训练能够生成逼真的与身份相符的照片。
May, 2017
本研究探讨了生成对抗网络(GANs)中潜在空间的交错问题,并提出了一种新的框架 SC$^2$GAN 以实现解交错。通过重新投影原始潜在编码样本并根据高密度和低密度区域进行编辑方向的修正,利用原始的有意义方向和语义区域特定层插值原始潜在编码,生成罕见的属性组合的图像,然后将这些样本反转回原始潜在空间。我们将该框架应用于学习有意义潜在方向的现有方法,并展示了它在添加了少量低密度区域样本的情况下解交错属性的强大能力。
Oct, 2023
本文提出了一种新的框架 (IALS),它利用来自一组对输入图像评估的属性分类器的监督来注入实例信息,通过执行实例感知潜空间搜索来找到解耦属性编辑的语义方向,并提出了一种 “DT” 度量来量化属性转换和解耦功效,并基于它找到属性级和实例级方向之间的最优控制因子。
May, 2021