TL;DR本文提出了一种面部动作单元(AU)级别的面部表情合成方法,使用基于 AU 注释的本地注意条件生成对抗网络(LAC-GAN)控制 AU 状态,并使用非配对训练数据训练操纵模块, 在常用的 BP4D 数据集上进行定量和定性评估以验证该方法的有效性。
Abstract
facial expression synthesis or editing has recently received increasing
attention in the field of affective computing and facial expression modeling.
However, most existing facial expression synthesis works are l
本研究旨在使用没有 AU 标签的表情数据集来促进 AU 检测,开发了一种名为 GLEE-Net 的新型 AU 检测框架,其中包括三个分支来提取独立于身份的表情特征,并通过 Transformer 多标签分类器来融合所有表示以进行 AU 检测。实验表明,该方法在 DISFA,BP4D 和 BP4D + 数据集上显著优于目前的最先进技术。
本文提出了一种基于自监督学习方法的区域和时序辅助任务学习框架(RTATL),通过考虑面部动作单元(AU)的属性,设计了 RoI 修复和基于单张图像的光流估计两个辅助任务,以更好地捕捉 AU 的局部特征、相互关系和运动线索,并在 BP4D 和 DISFA 数据集上进行了广泛的实验,在 AU 识别方面取得了最新的最优性能。
本文提出了一种基于深度学习的端到端注意力关系学习框架,用于面部动作单元(AU)检测。通过自适应地学习通道和空间注意力以选择和提取与 AU 相关的局部特征,并进一步捕获 AU 的像素级关系以提炼更多相关的局部特征,该方法在 AU 检测和强度估计方面均优于目前最先进的方法,并能在严重的遮挡和大姿态下工作。