Learning disentangled representations of data is a fundamental problem in
artificial intelligence. Specifically, disentangled latent representations
allow generative models to control and compose the disentangled
本文提出了一个名为 InterFaceGAN 的新框架,用于解释 GAN 学习到的语义面部编辑,并深入研究不同语义如何编码在 GAN 的潜在空间中。我们发现,精心训练的生成模型的潜在编码实际上学习了一个分离的表示,在线性变换后解旋,通过子空间投影来解开某些绑定属性,实现更精确的面部特征控制,并产生可控的面部属性表示的结果表明 GAN 具有生成高保真图像的能力。
本文提出一种基于 GAN 模型的高分辨率人脸交换方法,通过显式地将潜在空间的语义进行分离,并通过引入基于地标的结构转换潜在方向来分离结构属性中的身份和姿态信息,进而获得丰富的生成特征。通过加入空间 - 时间约束,将这种方法进一步扩展到视频人脸交换,并在实验证明,该方法在幻觉质量和连续性方面优于现有方法。