本文介绍我们在第四届野外情感行为分析竞赛中提交的方法,将提供的面部和面部周围背景的完整信息用于多任务学习挑战,使用 InceptionNet V3 模型提取深度特征,从而得出对情绪的分类和评估
Jul, 2022
本文介绍使用多个数据集共同训练机器学习模型来检测人脸情绪,并探讨数据注释和缺失标签对模型训练的影响。最终提出了一种在缺失标签下正确训练的算法,并且相比于其他情绪识别比赛有着不错的表现。
Aug, 2020
本文研究使用多任务组合框架解决情感和情绪分析中的三个问题,并通过使用卷积神经网络(CNN)、长短期记忆网络(LSTM)和门限循环单元网络(GRU)等三种深度学习模型以及手工特征表示进行预测,实验结果显示出本文提出的多任务组合框架的有效性,对于大部分问题和领域都获得了 2-3 个百分点的性能改进。
Aug, 2018
本文提出了一个半监督模型,采用平均教师框架来利用额外的无标签数据,通过多任务学习脸部情感表征,来解决现有多任务情感识别方法存在的数据不完整标注的问题,并成功在竞赛中排名第四和第六。
Jul, 2021
本文提出了一种增强的端到端框架,通过学习其他辅助任务和关注机制来获取更加稳健和更好地共享表示,以缓解传统系统中由于有限训练数据而导致的过拟合问题,提高语音情感识别性能。
Mar, 2019
这项研究在情感计算领域进行,旨在提高情绪识别领域多任务学习的效率和效果。研究探索了单任务解决方案和多任务方法,并通过修改输出层和损失函数,利用现有的神经网络架构进行多任务学习,研究结果对于情感计算领域具有潜在的应用价值。
Jun, 2024
本文提出了一种基于多视角深度生成性框架的新方法,通过多模式专用生成网络对多模态情感数据的统计关系进行建模,基于高斯混合分布对共享潜在变量的后验分布进行假设,以解决单一模式情感数据识别困难、手动注释代价高昂、情感数据存在缺失模态问题等问题,并在两种真实的多模态情感数据集上进行了实验验证。
Jul, 2018
本论文针对情感分析的各个领域进行了研究,提出了基于神经网络的多任务学习方法,该方法有效地应用于 Aff-Wild 情感数据库的新注释部分并实现了良好的性能。
Nov, 2018
本文介绍了一个深度多任务学习框架,通过上下文级别的视听注意力机制来同时进行情感和表情分析,并在 CMU-MOSEI 数据集上达到了新的最佳性能。
May, 2019
该研究论文讨论了 EmotioNet Challenge 2020 上的 AU 识别问题,并将其视为一项多任务学习问题,通过分别对非刚性面部肌肉运动(主要是前 17 个 AUs)和刚性头部运动(最后 6 个 AUs)进行建模。研究观察了表情特征和头部姿态特征的共现关系。通过选择最佳的检查点来进行 AU 识别,提高了识别结果,最终在验证集和测试集中获得了分别为 0.746 和 0.7306 的得分。
Apr, 2020