分离式人物图像生成
本文提出了一种新的生成对抗网络 (IS-GAN),可以通过身份标签而不需要其他信息将图像中的身份相关特征和非相关特征进行分离,在 person re-identification 中取得了显著的效果。
Oct, 2019
本文提出了一种名为 DRL-CPG 的新框架,用于学习可控人物图像生成的分离潜在表示,通过使用 transformer 编码器和属性解码器来实现形状和纹理的转换,实现了产生具有所需姿势和人体属性(例如姿势,头部,上衣和裤子)的逼真人物图像的目标。
Dec, 2023
本论文提出了一种利用神经网络学习解开图像可控制性表示从而允许局部图像操作的方法,能够直接转移面部特定区域如眼睛、头发和嘴巴等部分的形状和颜色,而其他部位不变,通过使用定位的 ResNet 自编码器和几个损失函数进行训练,利用 CelebA 数据集检验了该方法的良好效果。
Aug, 2019
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
本文提出了一种新型的自我监督混合模型(DAE-GAN),它结合了两个形变自编码器及条件生成的最新进展,用于学习如何在大量未标记视频的情况下自然地再现人脸,并且在 VoxCeleb1 和 RaFD 数据集上得到了优秀的实验结果,表明了重新表演图像的优异品质和在不同身份之间转移面部动作的灵活性。
Mar, 2020
提出了一种基于生成对抗网络的端到端面部编辑器,通过该编辑器,可推断出具有内在面部属性的面部特定分离表示,包括形状(即法线),反射率和照明,同时呈现出阿尔法或透明度。通过应用物理图像形成模块和适当的损失函数进行 “野外” 图像训练得到的分解潜在表示允许使用语义相关的编辑,在保持正交属性不变的同时操纵面部外貌的一个方面,在许多面部编辑应用中得到了展示。
Apr, 2017
本文提出了一种无监督的深度学习方法来分离在野外拍摄的脸部图像中的多个潜在变化因素,其中多个潜在变化因素的乘法交互通过多线性(张量)结构明确地建模。该方法学习了面部表情和姿态的分离表示,可用于各种应用,包括面部编辑,以及三维面部重建和面部表情、身份和姿态的分类。
Nov, 2017
本研究提出通过 StyleGAN 生成器的潜在空间编辑面部属性,通过训练专门的潜在空间转换网络并在损失函数中添加显式的分离和身份保存项来控制和保护身份,并介绍了一个将面部编辑推广到视频的流程。在真实图像和视频方面表现出出色的性能。
Jun, 2021