SOGAN: 面向化妆迁移的三维感知阴影和遮挡鲁棒性 GAN
在该研究中,我们提出了 Pose and expression robust Spatial-aware GAN (PSGAN),它通过 Makeup Distill Network 来将参考图像的妆容分解为两个空间感知的妆容矩阵,使用 Attentive Makeup Morphing 模块指定从参考图像到源图像的学习方式,并通过 Makeup Apply Network 连接源图像和妆容矩阵来进行妆容转移。实验结果表明,我们提出的 PSGAN 不仅在大幅度姿态和表情变化的情况下取得了最新的研究成果,而且还能够进行部分和颜色可控的妆容转移。
Sep, 2019
本文提出了一种 3D 感知的对抗性化妆生成 GAN 模型,旨在提高身份信息遮盖的合成化妆品的质量和可转移性,进而保护人脸不被各种人脸识别模型与商业面部验证 API,如 Face++,百度和阿里云等识别。
Jun, 2023
本文提出了一种名为 AMT-GAN 的新型人脸保护方法,旨在构建具有更强的黑盒传递性和更好的视觉质量的对抗性人脸图像,通过引入新的正则化模块以及联合训练策略来解决对抗噪声和化妆品转移中的循环一致性损失之间的冲突,实现攻击能力和视觉变化之间的理想平衡。广泛的实验验证了该方法能够保持较高的视觉质量,同时在 Face ++,Aliyun 和 Microsoft 等商业 FR API 上实现更高的攻击成功率。
Mar, 2022
提出了 CA-GAN 模型,用于学习可控的妆容风格颜色合成,能够在保留背景的同时将图像特定对象(例如嘴唇或眼睛)的颜色修改为任意目标颜色,该方法利用弱监督学习进行条件 GAN 训练,无需获取稀少且昂贵的颜色标签,为复杂对象的可控合成提供一种解决方案,同时提供了妆容风格迁移和颜色控制性能的定量分析。
Aug, 2020
通过将问题拆分为两个子问题,我们提出了 SideGAN,一种新颖的 3D GAN 训练方法,用于生成与相机位置无关的逼真图像,特别适用于侧视角的人脸。
Sep, 2023
该论文提出一种新型的图像混合方法,基于 GAN 反演原理,利用一个 better latent 空间,通过新的 GAN 嵌入算法与通用分割掩模配合使用,借助它将多个参考图像的视觉特性融合成一张逼真、更有连贯性、更具有细节保留能力的图像。
Jun, 2021
提出了一种 SofGAN 图像生成器来将肖像的潜在空间分解为几何空间和纹理空间,在经过一系列实验后,展示了该系统可以生成具有对几何和纹理属性具有独立可控性的高质量肖像图像。
Jul, 2020
本论文提出了一种基于多视图优化的方法,结合 StyleGAN 技术进行头发的虚拟试穿,能够准确地转移发型并保留输入图片的面部特征和身份信息。
Apr, 2023
本研究提出一种新的生成模型,利用其构建一个双模态互斥 GAN 模型,通过对两个组成部分整体损失和局部损失的衡量,来重构被遮挡住的面部,该模型通过对实际和合成数据组进行消融实验,显示出高于其他竞争方法的方法,可大幅提高人脸识别的性能。
Feb, 2020