该研究利用特征差异对长视频中自发微表情进行识别,并提出了自动微表情分析系统,该方法超出了人类在微表情识别任务上的表现且能胜任较具挑战性的任务。
Nov, 2015
本文介绍了一个使用卷积神经网络、optical flow features等技术来实现面部情感微表情识别的方法,并在三个数据库上进行了全面的评估,结果表明该方法在识别微小的情感细节方面表现优越。
May, 2018
本研究提出了一种利用深度循环卷积神经网络进行微表情识别的方法,该方法能够捕捉微表情序列的时空变化,相对于现有的其他方法,该方法表现更为优异。
Jan, 2019
该研究论文系统概述了基于视频的微表情分析,讨论了其神经心理学基础、数据集、特征、算法、应用和评估,之后提出了一个更完整的、适用范围更广的数据集,并进行了方法比较和未来研究方向的展望。
Jan, 2022
提出了一个使用浅层卷积神经网络进行小表情识别的框架,其中运动由Riesz Pyramid计算的相位来表示,相比于光流法,其提供了更局部的运动估计,使得小表达识别性能更高,并且降低了77.8%的计算量,达到了在两个公共数据集上的最新性能。
May, 2023
本文提出了一种用于面部表情识别的多尺度时空图卷积网络(SpoT-GCN),通过接受域自适应滑窗策略提取更稳健的动态特征,并通过面部图形表示将微妙的动态特征转换为学习到的时空图模式,并使用提出的面部局部图池化(FLGP)从多个尺度的面部图结构中学习局部和全局特征,此外,引入了有监督对比学习来增强模型对难以分类的帧的区分能力。在SAMM-LV和CAS(ME)^2数据集上的实验结果表明,我们的方法在微表情识别方面达到了最先进的性能,消融研究进一步验证了我们提出的模块的有效性。
Mar, 2024
提出了一种基于Hierarchical Space-Time Attention (HSTA) 的微表情识别方法,通过建立微表情视频帧与特定面部区域之间的联系以及跨模态数据的融合,实现了对微小的面部动作和情感的识别和分析。
May, 2024
提出了一种名为自适应时间运动引导图卷积网络(ATM-GCN)的微表情识别框架,该框架在整个剪辑中捕获帧之间的时间依赖关系,从而增强了剪辑级别的微表情识别能力。实验证明,ATM-GCN不仅在Composite数据集上超过现有的最先进方法,而且在最新的微表情数据集CAS(ME)$^3$上也取得了卓越的性能。
Jun, 2024
本研究提出了一种基于自我知识蒸馏的三通道时延注意力网络(SKD-TSTSAN),用于提高微表情识别的性能,并在四个微表情数据集上展开实验,结果表明SKD-TSTSAN优于现有方法,并取得新的最优性能。
通过运用提出的运动提取策略(MoExt)和额外的宏表情数据,该研究提出了一种新颖的微表情识别(MER)方法,能够从面部表情中提取代表性的运动特征,并且在常用数据集上验证了其优越性。
Jul, 2024