基于属性分解 GAN 的可控人物图像合成
本文提出了一种名为 SD-GAN 的创新框架,应用于处理具有挑战性的面部离散属性合成,利用语义分解将离散属性表示明确地分解为两个组件,并利用 3D 感知语义融合网络来获得偏移潜在表示,从而实现了精确合成具有离散属性的逼真人脸图像,构建了一个大型和有价值的数据集 MEGN 用于完成现有数据集中离散属性的不足,定量和定性实验证明了 SD-GAN 的先进性能。
Jul, 2022
我们提出了 AttriHuman-3D,一种可编辑的 3D 人体生成模型,通过属性分解和索引解决了高准确性局部编辑和巨大计算成本的问题,实现了在生成的 3D 人体化身中交互式编辑选定属性并保持其他属性固定的功能。定性和定量实验证明我们的模型在不同属性之间提供了强大的解耦,允许细粒度图像编辑和生成高质量的 3D 人体化身。
Dec, 2023
本文提出了一种名为 DRL-CPG 的新框架,用于学习可控人物图像生成的分离潜在表示,通过使用 transformer 编码器和属性解码器来实现形状和纹理的转换,实现了产生具有所需姿势和人体属性(例如姿势,头部,上衣和裤子)的逼真人物图像的目标。
Dec, 2023
我们提出了一个具有明确控制 GAN 生成的图像的框架,借助于对抗性训练(GANs)、明确控制的潜在空间以及对人类的符号解释模型进行了对生成图像的控制,可扩展到人类脸谱以外的领域,实现了身份、年龄、姿态、表情、头发色彩和光照方面的控制,并且在画像和狗图像生成的领域中都展示了控制能力,同时表现出优良的定量和定性性能。
Jan, 2021
本研究旨在改变面部图像的一个或多个属性,并保持其他细节,使用生成敌对网络(GAN)和编码器 - 解码器架构来确保高质量的面部特征编辑。
Nov, 2017
本研究设计了一种人类图像生成的生成模型,能够控制姿势,不同身体局部的外貌以及服装风格,能够生成高逼真度的图像,并在不同方面表现出色,如姿态控制、部位和服装转移以及关节采样。
Mar, 2021
本文介绍了一种基于结构感知流的方法,利用语义部分将人体分解,来应对人物姿态变换并生成高质量图像,网络模块能够有效地捕捉人体局部和全局语义特征,实验结果表明,该方法在生成高质量图像方面胜过其他方法。
Feb, 2021
本研究提出了一种新的控制图像属性的编辑方法,通过学习多种属性变换和应用内容损失和对抗损失来实现单一和多属性的编辑,并保留图像身份和真实感。此外,提出了客观评价标准以衡量模型性能,结果表明该模型在目标图像操作方面达到了最先进水平。
Feb, 2021
本文提出使用 Semi-Latent Facial Attribute Space (SL-FAS) 和 SL-GAN 模型学习人脸图像生成和修改,通过实验验证了该模型的有效性,并提出迭代训练算法。
Apr, 2017