本文提出了一种基于渐进式注意力 GAN 的人脸属性编辑方法,通过每个级别的注意力掩模约束在适当的属性区域内,从高到低的特征级别逐步进行编辑,以维护身份和背景等其他信息,并避免不必要的修改干扰,使该方法实现了正确的人脸属性编辑,并更好地保留了不相关的细节信息。
Jul, 2020
本研究使用变分自动编码器 (VAE) 和生成式对抗网络 (GAN) 相结合的方法,设计了 M-AAE 算法,在保持面部细节的前提下修改图片特征,通过面部识别损失和循环一致性损失,以及生成面部口罩来强化 VAE 和 GAN 的训练目标,成功生成了高质量、保留细节的图像,并超越了现有方法。
Apr, 2018
本文中提出的基于属性标签限制的模型,可以通过在预定义的潜在特征空间中直接应用属性标签并使用属性分类损失,从图像中提取属性相关信息,以实现用于编辑多个属性的面部属性传输,同时通过设计新的模型结构来提高属性传输能力。在 CelebA 数据集上的实验结果表明,该方法有效地克服了其他方法存在的三个限制。
Dec, 2019
本文提出了一种基于局部属性编辑的新方法 MaskFaceGAN,采用最先进的生成对抗网络(StyleGAN2)的潜在编码进行优化,通过不同 iable 的属性分类器和面部解析器执行多个约束条件,实现对人脸图像的局部面部属性进行编辑,达到了极高的图像质量,在 1024x1024 的高分辨率下进行编辑,而且相对于现有的竞争性解决方案,其属性交错问题更少。
Mar, 2021
本研究提出了一种基于生成对抗网络 (GAN) 的新型 GAN 模型,其特点是使用互补注意力特征 (CAFE) 来识别面部图像中要转变的区域,并在生成器中使用互补特征匹配来利用属性的空间信息,旨在解决其他方法中出现的对非指定区域进行无意义调整的问题,并通过与最先进方法的分析和比较研究来证明所提出方法的有效性。
Nov, 2020
本文提出使用 Semi-Latent Facial Attribute Space (SL-FAS) 和 SL-GAN 模型学习人脸图像生成和修改,通过实验验证了该模型的有效性,并提出迭代训练算法。
Apr, 2017
通过使用基于深度图和辅助语义分割掩模的 ControlNet 的无正则方法进行精细的局部属性编辑和基于自定义损失和正则化设置的基于正则方法进行粗糙的全局属性编辑,本研究对利用最新的生成模型改变的二十六种面部语义、人口统计和表情属性进行了实证消融,并在 CelebA、CelebAMaskHQ 和 LFW 数据集上使用 ArcFace 和 AdaFace 匹配器进行了评估,最终使用 LLaVA 验证了我们的编辑技术,方法在保留身份的情况下,在面部编辑方面优于现有技术(BLIP、InstantID)。
Mar, 2024
通过将选择性转移单元与编码器 - 解码器网络和生成对抗网络相结合,本文提出了一种属性编辑模型,可以有效地提高感知质量和属性操纵准确性。
Apr, 2019
本研究提出了一种新的控制图像属性的编辑方法,通过学习多种属性变换和应用内容损失和对抗损失来实现单一和多属性的编辑,并保留图像身份和真实感。此外,提出了客观评价标准以衡量模型性能,结果表明该模型在目标图像操作方面达到了最先进水平。
Feb, 2021
本文提出了一种基于前馈神经网络的人脸属性编辑方法,该方法可控制,转移和编辑野外人脸的多样属性,允许应用于人脸交换,光照转移和化妆品转移等多种应用。