学习多层深度表示用于图像情感分类
本研究聚焦于视觉图像的对象元素和背景的语义信息,通过建立基于深度前馈神经网络的情感模型,实现对视觉图像情感值的连续预测,证实了此预测模型的有效性。
May, 2017
本研究提出了一种新型深度学习框架,用于生成细粒度情感的嵌入式表示,可用于计算描述情感心理模型。通过与多头探测模型集成的上下文嵌入编码器,可以动态地学习情感表示并优化情感分类任务,评估结果表明可以达到最先进的 32 种情感分类。最后结合情感图生成情感轮并增强丢失的情感状态模型价值。
Apr, 2021
本研究提出了一种运用视觉和听觉模态的情感识别系统,其通过深度卷积神经网络提取语音特征,通过 50 层的深度残差网络提取视觉特征,并运用长短时记忆网络进行机器学习算法,通过对 AVEC 2016 情感识别研究挑战的 RECOLA 数据库的自发和自然情绪的预测,明显优于传统的以听觉和视觉手工制作特征为基础的方法。
Apr, 2017
本研究使用深度学习技术,以多模态方式,使用面部检测、音频流等模态,探索影片情感识别模型,成果在 2013 年的 EmotiW 挑战中成为获胜者,并在 2014 年的数据集上实现了约 47.67% 的准确率。
Mar, 2015
本文通过高级概念来探究图片内容与观众情感反应之间的联系,并提出了一个基于目标和场景来预测观众情感反应的非线性支持向量回归模型。实验结果显示,该模型与现有方法相比具有相似的效果,并明显揭示了现有研究中缺失的高级概念和情感类别之间的联系。
May, 2017
本文提出了一种混合模型(CDEL),并基于表情相似性聚类来增强模型,以实现在表情类别分类的有效性,具有深度学习和聚类算法的优点,从而在情感分类基准数据集上实现比基线模型更优越的性能和最新技术性能。
Feb, 2023
本文提出使用视觉深度神经网络模型进行情感语音识别的新方法,通过使用预先训练的计算机视觉深度模型的迁移学习能力,将声学特征转化为图像进行识别,并在 Berlin EMO-DB 数据集上进行实验,取得了新的最佳效果。
Apr, 2022
本文提出了一种从图像中提取高级语境表示的方法,利用单个线索和单个编码流与情感相关联,并且该模型的执行效率比以前的模型更高,其在 EMOTIC 数据集上达到了 0.3002 的 mAP 并且能够在消费级硬件上以每秒大约 90 帧的速度执行,容易部署在解决与情感识别相关的现实问题中。
May, 2023
利用多种信息源,包括面部、身体和场景背景,预测图像中的离散和连续情绪,实验结果表明该方法在情绪预测方面明显优于现有方法,突显了在情感预测中利用多种上下文信息的重要性,并展示了该方法在有效计算、人机交互和社会机器人等广泛应用领域的潜力。
Dec, 2023
本文提出了一种新的方法,使用全局表示和局部表示的相互补充信息对包含人群的图像进行情感分类,其中,使用卷积神经网络 (CNN) 学习图像的全局表示,通过注意力机制合并面部特征获得局部表示,将两种表示独立学习后通过级联融合,采用多种变化的模型组成的集成方法在 EmotiW 2018 群体情感识别挑战中取得了 64.83% 的测试集准确率,排名挑战参赛者的第 4 位。
Jul, 2018