多模态情感识别和情感分析的多任务学习
本研究通过卷积神经网络从文本、视觉等多个角度提取特征,实现了情感分析和情绪识别,并取得了 10% 的性能提升。同时,我们还探讨了在多模态情感分析研究中经常被忽视的若干重要问题,如讲话者无关模型和模态重要性等,从而为今后的研究提出了新的基准,并展示了在执行此类任务时需要考虑的不同方面分析。
Jul, 2017
本文讨论了多模态情感分析的三个方面:跨模态交互学习、多模态交互中的长期依赖性学习和一元和跨模态线索的融合,发现学习跨模态交互对解决该问题很有益。在两个基准数据集(CMU-MOSI 和 CMU-MOSEI 语料库)上进行实验,取得了 83.9%和 81.1%的准确率,分别比当前最先进技术提高了 1.6%和 1.34%的绝对精度。
Feb, 2020
本文研究使用多任务组合框架解决情感和情绪分析中的三个问题,并通过使用卷积神经网络(CNN)、长短期记忆网络(LSTM)和门限循环单元网络(GRU)等三种深度学习模型以及手工特征表示进行预测,实验结果显示出本文提出的多任务组合框架的有效性,对于大部分问题和领域都获得了 2-3 个百分点的性能改进。
Aug, 2018
本文提出了一种新颖的深度多模态框架,基于句子级别的口语语言预测人类情感,通过混合式的深度多模态结构从文本和音频中提取高级特征,再使用三层深度神经网络将所有特征融合起来进行训练,实现整个结构的最优全局微调,结果表明本文框架在 IEMOCAP 数据集上达到了 60.4% 的加权准确率。
Feb, 2018
本文介绍了一种利用 LSTM 结合口语音频和文本信息对多媒体剪辑中的情感进行识别的多模态神经架构,其优于单模态基线,并在唤起任务中达到了 0.400 的相关性系数和在价值任务中达到了 0.353 的相关系数。
May, 2018
本文提出使用注意力机制学习语音帧和文本单词之间的对齐方法,以提高音频 - 文本多模态情感识别的准确性,并在 IEMOCAP 数据集上取得了最先进的性能。
Sep, 2019
本文提出了一种增强的端到端框架,通过学习其他辅助任务和关注机制来获取更加稳健和更好地共享表示,以缓解传统系统中由于有限训练数据而导致的过拟合问题,提高语音情感识别性能。
Mar, 2019
本论文提出了一种新的特征融合策略并应用在情感分析中,该策略通过分层融合两种模态,然后再将其与第三种模态融合,在个别话语的情感分析和视频剪辑的情感分析中均取得了优异的效果。
Jun, 2018
本文提出了一种通过视角损失来改进的多模态语音情感识别模型,通过融合音频和文本信息来提高多模态任务的性能表现,在 IEMOCAP 数据集上获得了最新的最佳表现。
Apr, 2023