重塑情绪识别建模:广义大模型的出现
本研究探索大型语言模型 (LLMs) 在对话中识别人类情感方面的能力,重点关注开放领域闲聊对话和任务导向对话,并通过评估和比较 LLMs 在情感识别方面的性能,利用 IEMOCAP、EmoWOZ 和 DAIC-WOZ 三个不同数据集进行研究,从非零样本和少样本学习以及任务特定微调的角度探索 LLMs 的模型容量,并考虑了自动语音识别 (ASR) 错误对 LLM 预测的潜在影响。通过本研究,我们旨在阐明 LLMs 在对话中能够模拟人类情感识别能力的程度。
Sep, 2023
GPT-4 可以进行情感预测和情感强度的操纵,以及通过反向评估进行目标、信念和情感的预测。然而,它不能完全取代试图建模情感相关过程的作品,尽管语言模型在情感建模中有重要作用。
Oct, 2023
本文研究了大型语言模型(尤其是生成预训练变压器)在各种语言相关任务上显示出的令人印象深刻的结果。我们探索了 ChatGPT 仅通过提示就能够执行情感计算任务的零点能力。我们显示 ChatGPT a)能够在价值、唤起和支配维度上执行有意义的情绪分析,b)在情绪类别和这些情感维度方面具有有意义的情感表示,以及 c)可以根据基于提示的 OCC 评估模型的计算实现,对情况进行基本的评估引发情绪的操作。这些发现具有很高的相关性:首先,它们表明解决复杂的情感处理任务的能力源于对广泛数据集进行基于语言的标记预测的训练。其次,它们显示了大型语言模型模拟、处理和分析人类情绪的潜力,这对于诸如情感分析、社交互动代理和社交机器人等各种应用具有重要意义。
Sep, 2023
使用多模态信息、上下文和情感知识调整的对话型大型语言模型 (DialogueLLM),通过对 13,638 个多模态(文本和视频)情感对话进行微调,克服了大型语言模型在情感识别方面的局限性,并在三个基准情感对话识别数据集上进行了全面评估。
Oct, 2023
基于指令数据微调各种 LLMs 的 EmoLLMs 系列兼具情感分类和回归任务的综合情感分析模型,在各类任务中超越了现有的 LLMs、ChatGPT 和 GPT-4,具有与 ChatGPT 和 GPT-4 相当的情感分析自动化标注工具的广泛应用能力。
Jan, 2024
在这篇研究论文中,我们使用最近的大型视觉语言模型来探讨两种主要方法:图像字幕生成与仅使用语言的 LLM,以及零样本和微调设置下的视觉语言模型。我们在 Emotions in Context(EMOTIC)数据集上评估这些方法,并展示出即使在小型数据集上进行微调,视觉语言模型的性能也能显著超过传统的基准方法。我们的研究结果旨在帮助未来的机器人和智能系统对情感进行敏感的决策和交互行为。
May, 2024
本研究旨在通过深度学习和转移学习来提高情感计算中文段落情感识别精度。我们使用改进后的循环神经网络模型,并提出 Sent2affect 模型进行迁移学习。实验结果表明,我们的模型在 6 个基准数据集上表现出色,相对于传统机器学习方法有了显著提升。这些发现对情感计算的应用具有重要的启示意义。
Mar, 2018
我们研究了情感生成语言模型代理的情绪状态如何随着感知到新事件而演变,并引入了一种新的架构,其中将新经历与过去记忆进行比较,通过此比较,代理获得了在情感创造中至关重要的基于上下文的理解新经历的能力。
Feb, 2024
本研究利用大型语言模型(LLMs)的人工神经元研究人类情感推断机制,发现 LLMs 基于情感知识的概念结构与人类行为中的离散情感的结构相似,且它基于 14 个概念属性的情感推断依赖程度与人类依赖程度相近,这为情感知识在大型语言模型中的出现提供了直接证据,并建议其对离散情感推断至关重要。
Feb, 2023