- SUN 团队在 ABAW 2024 竞赛中的贡献:音频视觉的情感倾向与表达识别
通过调查音频和视觉深度学习方法,为非控制环境中的情绪识别问题提供有效的体系结构。使用基于微调的卷积神经网络(CNN)和公共维度情绪模型(PDEM)进行视频和音频模态的比较,并使用这些多阶段训练的模态特定的深度神经网络(DNN)的嵌入来比较替 - 基于情感计算的体验质量(QoE)预测的新方法
提出了一种基于情感计算驱动的体验质量(QoE)预测的新模型,使用多通道脑电图(EEG),心电图(ECG)和呼吸数据训练深度学习模型,比较了模型的性能,并对最佳模型进行了优化以提高结果。
- 基于连接不确定性的图卷积网络用于基于脑电波的情绪识别
基于多通道脑电图的自动情绪识别具有推进人机交互的巨大潜力,但现有算法情绪识别研究存在一些显著挑战,本研究通过引入基于图卷积网络体系结构的分布不确定性方法来解决这些挑战,实现了空间依赖性和时频相关性的表示,以及通过一种单向学习方式将不确定性学 - 利用场景和语义特征进行多模态情感识别
提出了一种利用场景和语义特征的多模态情绪识别方法,通过结合人物特征和环境上下文,使用 EmbraceNet 提取图像特征,并在 EMOTIC 数据集上验证了方法的有效性。
- EMERSK -- 基于情境认知的可解释多模情感识别
本文介绍了一种基于视觉信息的情感识别和解释系统,该系统采用多模式方法,使用卷积神经网络和注意机制从面部图像中提取深度特征,利用背景深度特征作为情境信息,融合多种信息以实现更准确的情感识别,同时结合景区类型和描述来生成情感解释。该方法在多项基 - ACL使用深度证据回归估计情感属性的不确定性
本文提出了一种贝叶斯方法,使用 深度证据情感回归 (DEER) 估计情绪属性的不确定性,得到最新的 MSP-Podcast 和 IEMOCAP 数据集上情感自动识别的最佳结果。
- 基于分布的对话情感识别
提出了一个分布式框架,将自动情感识别作为序列到序列问题来解决,通过引入贝叶斯训练损失来改善情感分布的不确定性估计,从而更好地处理情感标签的不确定性,实验结果表明,分布式框架在情感分类和不确定性估计方面优于单次话语和传统的基于人工设计特征的方 - 使用高级音频和文本特征的多模态情感识别
本篇研究提出一个基于深度学习和跨媒介表征学习的情感识别方法,该方法融合了文字和语音特征,并通过评估发现其在 IEMOCAP 数据集上表现优于其它方法。
- 自动情感识别和情感分析的伦理表格
本文通过汇总人工智能伦理学和情感识别文献的信息,提出了与自动情感识别相关的 50 个伦理考虑因素,特别关注情感识别对隐私和社会群体的影响,并提出了有关负责任的自动情感识别的关键建议。
- 跨模态分布匹配的半监督多模态情感识别
提出了一种基于跨模态分布匹配的半监督多模态情感识别模型,该模型利用丰富的未标记数据增强模型训练,实验结果表明该模型能够有效地结合多模态并利用未标记数据提高情感识别性能,并在同等条件下优于其他最先进的方法。
- AAAI基于修改距离损失的孪生神经网络在语音情感识别中的迁移学习
使用 Siamese 网络进行跨语音情感识别的迁移学习,通过 fine-tuning 和优化 distance loss 可以提高识别准确性。
- 情感身体手势识别调查
本文调研了自动情感识别领域中人体动作的情感表达。提出了完整的框架,包括人体检测、姿态估计、情感识别等组成部分。并讨论了多模态情感表达识别的方法。