- 少即是多:面部表情识别中的表征性与刻板性性别偏见
利用面部表情识别 (FER) 作为领域,通过分析性别人口的代表性和刻板性两种偏见,研究了数据集中的人口偏见对机器学习模型的传播情况。结果显示,代表性偏见对模型的影响较弱,而刻板性偏见具有显著的影响,主要集中在有偏见的类别上,尽管它也会影响无 - 多阈值深度度量学习的面部表情识别
利用多阈值深度度量学习技术,通过提取不同阈值下的表情特征表示,可以大幅提高面部表情识别准确性。通过将嵌入层划分为一组切片,并采用多阈值深度度量学习算法,每个切片对应一个样本阈值,并通过对应的三元组损失进行学习,从而获得一组独特的表情特征,从 - FaceMixup: 通过混合面部规范化增强面部表情识别
基于混合面部组件规范化的简单而全面的面部数据增强方法在面部表情识别中优于文献中的经典数据增强方法,包括 MixAugment
- 通过 LLM 知识传递提升零样本面部表情识别
本研究提出了一种名为 Exp-CLIP 的新方法,通过从大型语言模型(LLMs)中转移任务知识来增强零样例人脸表情识别。利用预训练的视觉 - 语言编码器,通过投影头将初始联合视觉 - 语言空间映射到捕捉面部动作表示的空间,以此训练投影头进行 - 利用全方位摄像头进行面部表情识别的自拍拍摄
最近的研究表明,视障人士希望像视力正常的人一样拍自拍照记录他们的照片并与他人分享。为了解决视障人士在拍摄自拍照时遇到的问题,本文提出了使用全景相机的多人自拍方法,通过面部检测、表情识别等技术,从多个视频帧中提取最满意的照片,并生成透视投影图 - MixCut:人脸表情识别的数据增强方法
通过使用 MixCut 方法进行数据增强,本研究在面部表情图像识别中实现了 85.63% 和 87.88% 的分类准确率,相较于 CutOut,Mixup 和 CutMix 等三种数据增强方法分别提高了 0.59%,0.36%,0.39% - FER-YOLO-Mamba:基于选择性状态空间的面部表情检测与分类
这篇研究论文介绍了 FER-YOLO-Mamba 模型,它是一个用于面部表情图像识别和定位的视觉 Mamba 模型,结合了 Mamba 和 YOLO 技术的原理,进一步设计了 FER-YOLO-VSS 双分支模块,以提高识别性能。
- Ada-DF: 一种适应性标签分布融合网络用于面部表情识别
通过标签分布学习范例和双分支的自适应分布融合框架,以应对日常生活中面部表情识别(FER)任务中数据集中的注释模糊性,并通过辅助分支获得样本的标签分布,计算每种情绪的类别分布,然后根据注意权重自适应地融合这两个分布来训练目标分支,在 RAF- - LEAF:半监督面部表情识别中同一枚硬币的两面
本文提出了一种统一的框架 LEAF(Hierarchical dEcoupling And Fusing),通过协调与半监督面部表情识别相关的表征和伪标签,解决了标签稀缺性带来的挑战,在三个层次上操作:语义、实例和类别,并在基准数据集上进行 - 面部表情和口罩佩戴分类的跨任务多分支视觉转换器
我们提出了一种统一的多分支视觉转换器,用于面部表情识别和口罩佩戴分类任务。我们的方法使用双分支架构提取两个任务的共享特征,获得多尺度特征表示。此外,我们提出了一个跨任务融合阶段,在交换信息的同时,使用交叉注意模块处理每个任务的标记。与为两个 - 以情感为中心的模型缓解面部表情识别中的灾难性遗忘
生成对抗网络生成的图像以及假排练方法能够增强卷积神经网络在情绪识别中的性能,保留之前学习到的知识,同时提高对目标数据集和源数据集的训练。
- CVPR多任务多模态自监督学习的面部表情识别
通过多模态多任务自监督学习方法,利用无标签的野外视频数据,实现了面部表情识别的模型,并在多个基准测试中取得了优秀的性能表现。
- eMotion-GAN:基于运动的 GAN 用于逼真且保留面部表情的正面视角合成
eMotion-GAN 是一种深度学习方法,用于前视合成并保留面部表情,在处理头部姿势变化时显著提高面部表情识别 (FER) 系统的性能。
- 面部表情识别的动态分辨率指导
本文介绍了一种名为动态分辨率引导面部表情识别(DRGFER)的实用方法,该方法能够在分辨率不同的图像中有效地识别面部表情,而不会影响面部表情识别模型的准确性。该方法包括两个主要组成部分:分辨率识别网络(RRN)和多分辨率适应面部表情识别网络 - 一种基于多尺度特征融合的轻量级注意力深度网络用于多视角面部表情识别
通过引入轻量级的关注网络,以及多尺度特征融合,本研究的主要目标是克服在实际应用中计算复杂性和多视角头部姿势方面所面临的挑战,该方法在参数数量和对姿势变化的鲁棒性方面达到了业界先进方法的水平。
- 面部表情识别的情感掩码自编码器与注意融合
创新方法集成了自我监督学习方法 MAE-Face 和融合注意机制,用于情感分类,通过提取关键面部特征以增强模型性能,特别是在 ABAW 第六次竞赛中展示,并在 Aff-wild2 数据集上得到显著验证。
- 第六届 ABAW 挑战赛上基于视觉语言模型的零样本复合表达识别
利用预训练的视觉语言模型结合传统的 CNN 网络,提出了一种用于识别合成表情的零样本方法。
- 通过半监督预训练和时间建模探索面部表情识别
我们提出了一种半监督学习技术来生成未标记面部数据的表情类别伪标签以解决有限 FER 数据集的泛化能力问题,并采用均匀抽样和去偏反馈学习策略来应对数据集中的类别不平衡问题和半监督学习中的数据偏差问题。此外,引入了时间编码器来学习和捕捉静态图像 - DrFER:学习面部表情三维识别的解耦表示
创新的 DrFER 方法在 3D 人脸领域引入了概念上的解缠表示学习方法,通过使用双分支框架,有效地将表情信息与身份信息解耦,并通过重新配置损失函数和网络结构适应于点云数据,从而提高了框架在识别面部表情方面的能力,即使在涉及不同头部姿势的情 - 头戴式耳机:部分遮挡的多模感知人类情感数据集
我们提出了一个新的多模态数据库来帮助推进沉浸技术的发展,该数据库提供了符合道德规范并且多样化的体积数据,可以支持面部表情识别等扩展现实算法的评估和性能测试。