应用基于关键点引导的生成对抗网络进行面部表情翻译
本文提出了一种基于面部标记点位置的新方法来揭示生成式对抗网络 (GAN) 合成图像的不同之处,并通过实验证明了 SVM 分类器使用面部标记点位置的效果可用于对 GAN 合成的面部进行分类。
Mar, 2019
本文提出了一种新模型,使用 Motion3DGAN 模型编码表情的时间演变,并利用 Sparse2Dense mesh Decoder 模型生成可以复合的表情转换;在多个公共数据集上进行实验验证,表明该方法在保持良好泛化性能的同时相较于之前的解决方案有了显著提高。
Jul, 2022
本文提出一种几何引导生成对抗网络 (G2-GAN),通过面部几何条件(标识点)来引导特定表情的面部纹理合成,实现逼真的与身份保护面部表情合成,并取得了良好的实验效果。
Dec, 2017
本研究中我们提出了一种用于表情驱动的视频修复的网络,利用生成对抗网络来处理静态和移动的遮挡物以生成完整的人脸图像,并借助面部标志和无遮挡参考图像来保持用户身份的一致性和情感的细节修复,为静态和动态帧中的面部视频消除遮挡提供了逼真和连贯的结果。
Feb, 2024
本文提出了一个包含真实照片、生成照片和编辑照片的面部取证定位数据集,并演示了通过在输入图像中显式添加面部标志信息,提高面部索证检测和定位性能的方法。
Oct, 2019
使用未成对的训练数据和特征点辅助的 CycleGAN,我们能够高质量地生成漫画面孔,这些面孔几乎无法与艺术家绘制的面孔区分,这种方法建立在面部结构的一致性基础上。
Jul, 2019
通过使用标记的真实人脸和未标记的风格化人脸,我们提出了一个简单但有效的方法来学习具有普适性的人脸关键点定位器,该方法通过条件人脸变形器的关键模块来学习人脸关键点定位器,从而为对应的风格化人脸图像提供高质量的伪关键点,从而实现了在人脸关键点定位任务中优于现有最先进领域适应方法的普适性人脸关键点定位器。
Apr, 2024
本文致力于使用生成模型(GP-GAN)从所给的面部标志点中合成对应的面部图片,并通过大量实验证明,该方法可以通过保留性别等信息从面部标志点中生成更准确的面部图片。
Oct, 2017
通过自我监督学习,我们提出了一个两阶段的音频驱动对话人物生成框架,利用 3D 面部特征点作为中间变量,以实现表情、注视和头部姿势的合作对齐,并映射到预训练模型中以生成高质量人脸图像。
Jun, 2024
通过结构感知的全卷积网络以及 GAN 的显式 / 隐式学习策略,该论文提出了一种解决单目图像中姿态估计问题的方法,并在 2D 和 3D 姿态估计以及人脸重要标识等相关任务上显著优于现有方法。
Nov, 2017