通过多模型合奏进行复合表达式识别
提出了一种基于 Multi-Region Ensemble CNN (MRE-CNN) 框架的面部表情识别方法,结合深度学习方法和 CNN,同时捕捉全局和局部特征确定面部表情,经过实验证明,取得了最新的识别精度。
Jul, 2018
综述了多模式对话情感识别的建模方法,大致划分为无上下文建模、顺序上下文建模、说话人差异建模和说话人关系建模四个类别,并讨论了多模式特征提取方法、应用领域、挑战和未来发展方向。希望能够帮助研究人员理解当前情感识别研究的现状,提供一些启示,并开发出更高效的模型。
Dec, 2023
本文提出了 Continual Facial Expression Recognition(ConFER)基准测试,评估了不同的 Continual Learning(CL)方法在面部表情识别任务中的性能,表明 CL 技术在不同的学习设置下能够实现多个数据集上的最先进的性能,因此促进了关于将 CL 原则应用于人类面部表情的行为理解中的益处和挑战的讨论。
May, 2023
本文提出了一种多模态多任务学习的情感识别方法,包括文本和声学模态的早期融合和自我注意力,使用动态融合网络用于语音编码器,得到了目前最先进的性能结果。
Mar, 2022
通过设计多模态生成对抗网络、深度联合变分自编码器和多任务图神经网络等方法,提出了一种处理情感识别中数据不平衡的模型,取得了跨模态情感识别的一定性能改进,尤其在恐惧和厌恶情绪标签的准确性和 F1 值上提高了 10%到 20%。
Dec, 2023
提出了一种基于多个输入模态的学习方法 M3ER,旨在实现情绪识别,其采用数据驱动的乘积融合方法来结合来自多个模态的线索,抑制噪音,提高准确性,并取得了成功的实验验证。
Nov, 2019
基于向量连接的跨模态融合情感预测网络,包括多模态特征融合阶段和基于融合特征的情感分类阶段,同时设计了基于情感标签的监督式跨类对比学习模块,实验证实了该方法的有效性,并在 IEMOCAP 和 MELD 数据集上展现出优异的性能。
May, 2024
本文研究深度学习的集成方法,提出了具有共享表示的集成方法,通过实验数据计算并展示了其高效性和可伸缩性,并在表情识别领域达到了人类级别的性能。
Jan, 2020
本文提出了一种同时考虑语境和情感的框架 CEFER(Context and Emotion embedded Framework for Emotion Recognition),提高了对文本中隐含情感的识别准确率。
Sep, 2022
该研究介绍了一种基于深度网络的上下文感知情感识别方法,利用了人脸表情和场景上下文信息进行情感识别,并通过引入新的基准数据集 CAER 在多个基准测试中表现出了上下文对于情感识别的有效性。
Aug, 2019