通过旋转你的人脸进行表征学习
研究使用生成的合成数据进行面部识别的训练。通过在 GAN 的产生器中引入 3D 可塑模型,实现了从实际图像中学习非线性纹理模型,从而生成新的合成身份,同时操作姿势、照明和表情,而不会影响身份。最终使用生成的数据增加现有面部识别网络的训练,性能得到改善。
Dec, 2020
本文探讨了一种基于深度神经网络的人脸识别方法,针对面部不同位置的姿态变化,在训练数据相对不足的情况下,通过生成非正面视图,提高了数据多样性,并利用特征重建度量学习来显式地分离身份和姿态,实现了不变性和识别准确性。
Feb, 2017
本文提出了一种新型的自我监督混合模型(DAE-GAN),它结合了两个形变自编码器及条件生成的最新进展,用于学习如何在大量未标记视频的情况下自然地再现人脸,并且在 VoxCeleb1 和 RaFD 数据集上得到了优秀的实验结果,表明了重新表演图像的优异品质和在不同身份之间转移面部动作的灵活性。
Mar, 2020
本文提出了一种基于 TP-GAN 网络的真实主观正面合成方法,通过引入对局部纹理的注意力网络,并结合对称损失、身份保留损失等方式来解决这个本质上存在不确定性的挑战性问题。实验结果表明,该方法不仅在感知结果上表现出色,而且在大角度人脸识别方面也优于现有的最新方法。
Apr, 2017
本研究提出了一种基于生成对抗网络的新方法,利用生成器和鉴别器实现面部建模。通过定量和定性结果表明,这种方法能更好地分离面部特征中的自然因素,尤其是身份和表情,并且比现有的最先进方法在解耦和多样性方面表现更优秀。
Feb, 2019
本文提出了一种新的双重关注生成敌对网络(DA-GAN)来实现逼真的人脸正面效果生成,它结合了自注意力机制和面部注意力机制,使得生成的前面部分的人脸更加真实,具有更精细的面部外观和纹理信息,并在定量和定性实验中取得了良好的表现。
Feb, 2020
本文介绍了一种基于 Feature Distilling GAN 的人物重识别方法,可以学习不受姿态影响的身份相关特征,而不需要额外的姿态信息和计算成本。此方法在三个人物重识别数据集上达到了最好的性能,证明了 FD-GAN 的有效性和稳健性。
Oct, 2018
本文提出了一种新的生成对抗网络 (IS-GAN),可以通过身份标签而不需要其他信息将图像中的身份相关特征和非相关特征进行分离,在 person re-identification 中取得了显著的效果。
Oct, 2019
本文介绍了一种名为 InterFaceGAN 的框架,通过解析状态最先进的 GAN 模型学习的分离面部表示,并研究在潜在空间中编码的面部语义属性特性,可以实现面部属性的真实操作而不必重新训练模型,并且可以更准确地控制特征操作。
May, 2020