PP-GAN:使用带有 GAN 的地标提取器从韩国肖像到身份证照片的样式转移
本文致力于使用生成模型(GP-GAN)从所给的面部标志点中合成对应的面部图片,并通过大量实验证明,该方法可以通过保留性别等信息从面部标志点中生成更准确的面部图片。
Oct, 2017
我们提出了一种面部姿态感知和风格转换(Face-PAST)网络,它在生成高质量的风格化图像的同时保留面部细节和结构。通过使用预训练的风格生成网络和残留调制块而非变换编码块,以及利用门控映射单元和面部结构、身份和分割损失来保留面部结构和细节,我们的网络能够用非常有限的数据进行训练。我们的训练过程采用课程学习策略来在生成空间中进行高效灵活的风格混合。通过广泛的实验证明了我们的 Face-PAST 方法相较于现有最先进的方法的优越性。
Jul, 2023
本文提出利用面部标志信息的地标引导生成对抗网络(LandmarkGAN), 用于使用单张图像进行面部表情转换,实现了在同样只有一张图像的情况下,比现有的基于关键点指导法更好地实现了面部表情之间的转换。
Sep, 2022
通过使用 StyleGANs 的潜在空间和提出的方法进行面部图像编辑,我们介绍了一种名为 ID-Style 的新架构,可以解决在属性处理过程中面临的身份丢失问题。ID-Style 的关键组件包括可学习的全局方向(LGD),为每个属性找到共享和半稀疏的方向,以及实例感知强度预测器(IAIP)网络,根据输入实例对全局方向进行微调。尽管与类似的最先进作品相比,网络尺寸减小了约 95%,但其在身份保持度量(FRS)和操作平均准确度(mACC)分别优于基线 10%和 7%。
Sep, 2023
本文提出了一种基于 TP-GAN 网络的真实主观正面合成方法,通过引入对局部纹理的注意力网络,并结合对称损失、身份保留损失等方式来解决这个本质上存在不确定性的挑战性问题。实验结果表明,该方法不仅在感知结果上表现出色,而且在大角度人脸识别方面也优于现有的最新方法。
Apr, 2017
本文提出了一种名为 Gated GAN 的多样式图像合成模型,该模型结合了编码器,门控变换器和解码器三个部分,可以实现在一个模型中转换多种样式的输入图像,同时通过辅助分类器识别样式类别,以稳定训练并提高合成图像质量。
Apr, 2019
本文介绍一种名为 DualStyleGAN 的新型神经网络,可用于基于范例的高分辨率肖像风格迁移,实现原始面部领域和艺术肖像领域的双重风格控制,并通过一种新型的渐进微调机制使其能够精确拼贴风格示例。实验证明其在高质量肖像风格转换和灵活的样式控制方面优于现有方法。
Mar, 2022
通过将 TypeIVBasicCard-B(T - 基本卡 - B)上的 TypeI 基本卡 - B(T - 基本卡 - B)与 TypeI 机读卡 - B(T - 机读卡 - B)及 TypeI 机读卡基础数据 - B(T - 基础数据机读卡 - B)结合设置在 TypeIV-B(T - 基本卡 - B)上,可按材料基础建立既定基本卡 - B(T - 既定基本卡 - B);通过在 TypeIV-B(T - 基本卡 - B)上设置 TypeII 证件單位 - B(T - 证件單位 - B)及 TypeIII 办事处 - B(T - 办事处 - B),可在已有证件基本卡 - B(T - 证件基本卡 - B)填写办证所需信息后,通过已有证件基本卡 - B(T - 办证所需信息 B)向申请人提出开户要求,并通过设置 T - 证件基本卡 - B 展示及更新申请人概述 - B(T - 展示及更新申请人概述 - B)的一系列选定项 (B),实现无法更新已有证件文件申请人开户要求。
Sep, 2023
本文提出了一个新的照片逼真人像生成框架,可以有效减轻「奇异山谷」效应,提高渲染人像的真实性。使用转移学习从渲染人像的潜在空间学习到真实人像的潜在空间的一致映射,使虚拟角色的人像在外观风格改变的同时保持面部身份的不变,通过细化 StyleGAN2 生成器以保留与面部身份相关的几何和色彩特征。通过定性和定量评估以及消融实验,证明了我们的方法相较于现有方法的优势。
Oct, 2023
提出了一种基于 StyleGAN 模型的面部表情迁移方法,通过优化过程和线性组合方案将两个输入脸部图像的外观属性和表情属性实现合并,从而在不需要几何注释的情况下生成高质量、准确的面部表情合成结果。
Dec, 2019