第六届 ABAW 挑战赛上基于视觉语言模型的零样本复合表达识别
本论文介绍了利用预训练的深度模型在静态照片上提取可靠情感特征的可能性,并通过多任务场景中的轻量级模型来识别面部表情、价值和唤起。实验结果表明,与现有的非集成技术相比,我们的方法显著提高了验证集上的质量指标。
Mar, 2024
该论文提出了一种用于复合表情识别的新型视听方法,该方法基于融合情感概率的情感识别模型,并利用预定义规则进行复合表情的预测,结果表明该方法可作为开发标注音频 - 视觉数据中人类基本和复合情绪的智能工具的基础。
Mar, 2024
本文提出一种利用视觉和音频信息的多模态和多任务学习方法来分析人类情感,使用 AU 和表情标注训练模型并应用序列模型提取视频帧之间的关联,实现了 0.712 的 AU 分数和 0.477 的表情分数,证明了该方法在提高模型性能方面的有效性。
Jul, 2021
本文介绍了第三届 ABAW 竞赛,该竞赛以自动情感分析为目标,并包括四个挑战:单任务价值 - 唤醒估计、单任务表情分类、单任务动作单元检测和多任务学习。在此基础上,我们概述了竞赛数据集、评估指标及基准系统。
Feb, 2022
本文介绍了于 CVPR 2023 会议举办的第五届 Affective Behavior Analysis in-the-wild (ABAW) Competition,其中包括四个挑战,使用了两个数据集,分别是 Aff-Wild2 database 和 Hume-Reaction dataset,这些挑战包括单任务的情感估计、表情分类、动作单位检测和情绪反应强度估计。
Mar, 2023
本研究介绍了一种基于多模态特征和 Transformer 的统一框架,用于情感行为分析和表情识别任务,同时运用数据平衡和增强方法进一步提高模型性能。实验证明,该方法在 ABAW3 竞赛中在 EXPR 和 AU 方面排名第一。
Mar, 2022
本文介绍了第六届野外情感行为分析 (Affect Behavior Analysis in-the-wild, ABAW) 竞赛,该竞赛是 IEEE CVPR 2024 大会举办的研讨会的一部分。该竞赛致力于理解人类情感和行为等当代挑战,对人类中心技术的发展至关重要。具体来说,竞赛关注情感相关的基准任务,包括估计两个连续情感维度(情感价值和唤醒度)、识别七种基本表情和其他表情、检测 12 个动作单元、识别七种互斥复合表情以及估计六个连续情感维度的情感模仿强度。本文介绍了这些挑战,描述了相应的数据集和挑战协议(包括评估指标),并呈现了基准系统及其表现结果。竞赛的更多信息可在 https://affective-behavior-analysis-in-the-wild.github.io/6th 上找到。
Feb, 2024
本研究使用 Transformer 机制,结合鲁棒表示编码和表示融合进行表情分类,结果表明该模型在 Aff-Wild2 数据集上表现有效。
Mar, 2022
本篇论文介绍了在 2022 年欧洲计算机视觉会议 (ECCV) 期间举办的第四届情感行为分析比赛 (ABAW)。今年该比赛涵盖了两个不同的挑战:多任务学习和从合成数据学习,目标在于基于 Aff-Wild2 数据库自动分析情感表达,其中该数据库是一个大规模的野外数据库,具备对价值、唤醒度、表情和动作单位的注释,并通过 s-Aff-Wild2 数据库和人工合成数据集完成了情感识别的基础研究。
Jul, 2022
通过调查音频和视觉深度学习方法,为非控制环境中的情绪识别问题提供有效的体系结构。使用基于微调的卷积神经网络(CNN)和公共维度情绪模型(PDEM)进行视频和音频模态的比较,并使用这些多阶段训练的模态特定的深度神经网络(DNN)的嵌入来比较替代的时间建模和融合策略。在 ABAW'24 挑战协议下,对 AffWild2 数据集进行了结果报告。
Mar, 2024