从静态到动态:针对视频中面部表情识别的适应性地标感知图像模型
探讨使用自我监督学习方法进行多模态动态面部表情识别的研究,并提出了解决该任务中的主要挑战以及相应解决方案,最终在 DFEW 和 MFAW 两个常用的动态面部表情识别基准数据集上实现了超过当前最先进方法的改进。
Apr, 2024
本文提出了一种使用条件随机森林从视频中捕捉表情变化的低级表达式转换模式的方法,通过对影片中每个前一帧生成的树进行预测,并通过时间平均来获得鲁棒性估计,进而提升面部表情分类的性能及精度。
Jul, 2016
MAE-DFER 是一种新型的自监督方法,它通过大规模无标签数据的自监督预训练来推动 DFER 的发展,同时采用效率高的局部全局交互 Transformer 编码器,以及明确的面部动作建模,可以学习到强大的动态面部表征。
Jul, 2023
该论文介绍了一种名为 DFER-CLIP 的新型视觉语言模型,它基于 CLIP 模型,用于野外动态面部表情识别 (DFER)。该模型包括视觉部分和文本部分,通过提取时序面部表情特征和学习上下文信息,实现了与当前监督 DFER 方法相比的最先进结果。
Aug, 2023
创新的 DrFER 方法在 3D 人脸领域引入了概念上的解缠表示学习方法,通过使用双分支框架,有效地将表情信息与身份信息解耦,并通过重新配置损失函数和网络结构适应于点云数据,从而提高了框架在识别面部表情方面的能力,即使在涉及不同头部姿势的情况下,经过对 BU-3DFE 和 Bosphorus 数据集进行的广泛评估表明,DrFER 超过了其他 3D FER 方法的性能。
Mar, 2024
本文介绍了一种名为动态分辨率引导面部表情识别(DRGFER)的实用方法,该方法能够在分辨率不同的图像中有效地识别面部表情,而不会影响面部表情识别模型的准确性。该方法包括两个主要组成部分:分辨率识别网络(RRN)和多分辨率适应面部表情识别网络(MRAFER)。RRN 确定图像分辨率,输出一个二进制向量,而 MRAFER 根据分辨率将图像分配给适合的面部表情识别网络。我们在广泛使用的 RAFDB 和 FERPlus 数据集上评估了 DRGFER,结果显示我们的方法在每个分辨率上保持了最佳模型性能,并且优于其他分辨率方法。所提出的框架对分辨率变化和面部表情具有鲁棒性,为实际应用提供了有前途的解决方案。
Apr, 2024
深度神经网络在面部表情识别中的应用、数据集和算法,针对过拟合和灯光、头部姿态等问题,分析和总结静态和动态图像序列的最新模型和性能,并探讨未来的发展方向和挑战。
Apr, 2018
通过动态阈值方法,从含无干扰样本的数据集中选择数据,以减少嘈杂注释对面部表情识别深度学习的影响。同时,该研究还构建了一个无监督的同步 loss 机制使其能够学习从所有的数据集中学习。
Aug, 2022
通过提出多尺度时空 CNN-Transformer 网络(MSSTNet),本研究在人脸动态表情识别领域中取得了最先进的结果,该方法利用多尺度空间和时间信息实现了对面部表情的准确分类。
Apr, 2024