基于集成学习的评估情感体验和生理变化动态
本文提出了一种多模态方法,结合分析面部运动和多个外部生理信号,通过考虑个体化休息动态来解码正负情感体验。通过构建人体特征循环网络,解码个体面部运动和生理数据的动态耦合关系,并在其基础上训练推理模型,将个体的情感体验进行预测和验证。
Nov, 2018
提出了一种基于情感计算驱动的体验质量(QoE)预测的新模型,使用多通道脑电图(EEG),心电图(ECG)和呼吸数据训练深度学习模型,比较了模型的性能,并对最佳模型进行了优化以提高结果。
Nov, 2023
本研究提出一种多模态深度学习模型,结合了转换器编码器和预训练语言模型,利用客观指标和自我报告日记进行情感状态预测。通过进行为期一年的纵向研究,监测大学生参与者的身体、环境、睡眠、新陈代谢和体力活动参数,以及开放式的文本日记,实证结果表明该模型在提前一周预测积极和消极情感方面的准确率分别为 82.50% 和 82.76%。该模型的解释性进一步提高了其有效性。
Mar, 2024
提出了一种结合多模态数据的新型多模态学习框架,旨在提高潜在情绪识别准确度,包括一维可分离和可混合的深度入手网络、标准化的正态分布加权特征融合方法以及深度 / 生理引导的注意力模块。实验结果表明,该方法优于基准方法,其中加权融合方法和引导注意力模块都对性能提升起到了贡献。
Aug, 2023
本文研究使用多任务组合框架解决情感和情绪分析中的三个问题,并通过使用卷积神经网络(CNN)、长短期记忆网络(LSTM)和门限循环单元网络(GRU)等三种深度学习模型以及手工特征表示进行预测,实验结果显示出本文提出的多任务组合框架的有效性,对于大部分问题和领域都获得了 2-3 个百分点的性能改进。
Aug, 2018
本文介绍了我们在 CVPR 2023:Affective Behavior Analysis in-the-wild (ABAW) 第 5 次研讨会和比赛中进行情感反应强度 (ERI) 估计挑战的方法,通过基于多模态数据提取声学和视觉特征,提高了我们的模型表现能力,并使用 Transformer 编码器进行交叉模态关注机制,从而提高了与基线的 Pearson 相关系数。
Mar, 2023
我们研究了使用可穿戴生物信号数据进行三类情绪分类(中性、压力和娱乐)的个性化和普遍化机器学习模型之间的差异,并发现个性化模型在特定情境下表现优于普遍化模型。
Aug, 2023
本文提出了一种使用多个数据集结合模型集成方法,并将其应用于压力检测的方法,该方法的表现优于仅基于单个小数据集训练的模型。
Sep, 2022
本文提出了一种高效的基于多尺度 Transformer 的方法,用于从生理数据中识别情感,并且利用多模态技术和缩放数据建立内部身体信号与人类情感之间的关系。同时使用高斯变换技术优化信号编码效果,并在 EPiC 比赛的 CASE 数据集上取得了 RMSE 得分 1.45 的好成绩。
May, 2023
本研究使用德语说话者的 Ulm-TSST 数据集,通过使用音频 - 视觉记录和生物信号特征来预测情绪唤醒和价值评估的水平,利用 LSTM 和自我注意机制来捕捉其复杂的时序依赖关系,并借助迟到融合策略进一步提高其识别性能。
Oct, 2021