TL;DR本文针对面部表情识别领域的标签偏差问题,提出了一种利用面部动作单元进行带有三元损失的 AU 校准面部表情识别(AUC-FER)框架,实验证明该方法比现有技术更有效。
Abstract
The performance of a computer vision model depends on the size and quality of
its training data. Recent studies have unveiled previously-unknown composition
biases in common image datasets which then lead to skew
本研究旨在使用没有 AU 标签的表情数据集来促进 AU 检测,开发了一种名为 GLEE-Net 的新型 AU 检测框架,其中包括三个分支来提取独立于身份的表情特征,并通过 Transformer 多标签分类器来融合所有表示以进行 AU 检测。实验表明,该方法在 DISFA,BP4D 和 BP4D + 数据集上显著优于目前的最先进技术。