在电影场景中学习情绪和心理状态
该研究提出了一种基于情感感知的 Transformer 编码器,用于生成类人的同情回应,将语义和情感方面集成到输入话语中。在 Facebook AI 共情对话数据集的实验中,该模型相比现有方法生成的回应具有更高的 BLEU-4 得分,这表明情感智能的虚拟代理现在已成为现实,并且未来在所有人机接口中都将包括情感作为一种模态。
Apr, 2022
本文提出一种新的多模态情感分析方法,使用深度神经网络结合视觉分析和自然语言处理,旨在推断用户潜在的情感状态并且在社交网络中应用此方法实现自我报告的情感标签的预测,实验证明该模型的性能优于仅基于图像或文本的单独模型,并具有与情绪相关的合理词汇列表。
May, 2018
本研究提出了一种新型深度学习框架,用于生成细粒度情感的嵌入式表示,可用于计算描述情感心理模型。通过与多头探测模型集成的上下文嵌入编码器,可以动态地学习情感表示并优化情感分类任务,评估结果表明可以达到最先进的 32 种情感分类。最后结合情感图生成情感轮并增强丢失的情感状态模型价值。
Apr, 2021
在 Emotions in Context(EMOTIC)数据集上,评估了最近的大规模视觉语言模型(CLIP,LLaVA)和大语言模型(GPT-3.5)中嵌入的情绪常识知识。使用一组 872 个与 26 个情绪类别相关的物理社交信号描述和 224 个情绪显著环境背景描述构建了与情绪感知相关的 “叙述性字幕”,并评估了在图像 - 语言 - 情感任务中使用这些字幕的效果。零样本视觉语言模型的实验表明,结合 “快速” 和 “慢速” 推理是改进情绪识别系统的一种有前途的方法,但与在 EMOTIC 数据集上训练的以往研究相比,零样本情绪心理理论任务仍存在差距。
Oct, 2023
本文提出了一种名为 Topic-Driven Knowledge-Aware Transformer 的模型,包含一种话题增强语言模型、基于对话情境信息的常识语句和一种转换器,用于识别情感标签序列中的话题和情感状态。实验结果表明,该模型在对话情感检测方面表现优于现有的最先进方法。
Jun, 2021
通过使用图像和文本,我们研究了艺术品对观众情感的影响,并利用多模态分类任务探究了模型的性能表现,发现单模态多模态 transformer 模型比图像模型和双模态模型性能更好。同时,与文本模型 BERT 相比,采用单模态模型 MMBT 能够提高在极端正负情感类别上的性能。
Oct, 2021
本研究旨在探究情绪与情感的相互作用对情绪计算的影响,通过利用经过度量学习的变化情绪标签预测视频片段的情绪变化,并比较单一情绪标签与整体标签的模型预测效果,结果表明通过整合情感变化信息进行训练,情绪预测模型能够实现更好的效果。
Jun, 2023
本文提出了一种基于状态空间模型 (SSM) 的方法,通过组合句子级情感预测器和期望最大化 (EM) 过程来为每个歌曲生成完整的情感动态,该方法不需要任何注释过的歌曲,因此非常适合于有限的训练数据情境,并可显著提高基线模型的性能。
Oct, 2022
Combining Trait and State emotions for Empathetic Response Model (CTSM) enhances emotional perception and empathetic expression in dialogue systems, outperforming state-of-the-art baselines.
Mar, 2024
将神经生理学的先前知识融入神经网络结构可提高情绪解码的性能。通过引入一种称为 EmT 的新型变压器模型,将 EEG 信号转换为时态图形式,并设计了一种用于学习时态上下文信息的模块,EmT 在广义跨受试者 EEG 情绪分类和回归任务中表现出色。
Jun, 2024