FReeNet: 多身份人脸重演
该研究提出了一种基于一次学习的人脸复现系统,通过将目标人脸外观和源脸形状投影到潜在空间中,并学习一个共享解码器来使这两个潜在空间相关联,从而实现有效建模。该方法在 Mustache 和 Hair 区域照片合成的质量上比传统方法有很大提高,并且仅用一张目标图像训练便能实现与多张目标图像训练同样令人满意的结果.
Aug, 2019
本文介绍了一种基于动作单元控制的人脸重现 GAN(FACEGAN)算法,以解决在人脸动作重现过程中面部结构和身份信息的泄漏问题,并实验证明该算法相对于现有方法效果更好。
Nov, 2020
提出了一种名为 ReenactGAN 的基于学习的框架,可从单眼视频输入转移人脸运动和表情到目标人物。此方法将源脸映射到边界潜空间,使用变形器进行调整,最终生成重现的目标面孔,这一过程可以在实时(30 FPS 的 GTX 1080 GPU 上)中执行。
Jul, 2018
本论文提出了一种神经面部 / 头部再现的框架,其目标是将目标面部的 3D 头部方向和表情转移到源面部。我们采用了不同的方法,通过使用(精调)预训练的生成对抗网络,绕过了学习嵌入网络以实现身份和头部姿态 / 表情分离的困难任务,以提高生成图像的质量。我们的方法通过将真实图像嵌入生成对抗网络的潜在空间,成功实现了对真实世界面部的再现。
Feb, 2024
本文提出了一种只需要输入一个源标识符和目标表情,便可生成一定质量的表情图片的一次性脸部再现模型,FaR-GAN,适用于图片处理和电影制作。将此方法应用于 VoxCeleb1 数据集并与其他方法进行比较取得更好的效果。
May, 2020
本文提出了一种新型的自我监督混合模型(DAE-GAN),它结合了两个形变自编码器及条件生成的最新进展,用于学习如何在大量未标记视频的情况下自然地再现人脸,并且在 VoxCeleb1 和 RaFD 数据集上得到了优秀的实验结果,表明了重新表演图像的优异品质和在不同身份之间转移面部动作的灵活性。
Mar, 2020
使用预训练的 StyleGAN2 生成器,结合超网络技术,我们的神经脸部再现方法 HyperReenact 在一次性条件下,实现了逼真的说话头部图像的生成,消除了外部编辑方法通常产生的伪影,并具有出色的鲁棒性,甚至在极端头部姿势变化下也表现出卓越的性能。
Jul, 2023
Face2Face 是一种用于实时面部复刻的创新方法,可以通过非刚性基于模型的束缚,跟踪面部表情,实现来自单眼录制的目标视频序列的面部表情的动画化,并以逼真的方式重新渲染操作后的输出视频。
Jul, 2020
本文提出了一种新颖的生成对抗网络,用于单次面部再现,能够在保持面部原始外观的同时对单个面部图像进行不同的姿势和表情动画效果。作者们设计了外观自适应归一化机制和本地网络结构,用于集成外观信息和优化脸部生成器,实现更加精准的面部再现表达。实验结果表明,该模型在单次方法中取得了显著的效果提升。
Feb, 2021
提出了一种基于 StyleGAN 模型的面部表情迁移方法,通过优化过程和线性组合方案将两个输入脸部图像的外观属性和表情属性实现合并,从而在不需要几何注释的情况下生成高质量、准确的面部表情合成结果。
Dec, 2019