非固定长度对话情感检测
本文针对会话中情绪识别的复杂性,提出了一种利用双向门控循环神经网络捕捉上下文相关性和说话人之间相互作用的对话情感识别方法。实验结果表明该方法比现有的最先进方法更为有效。
Feb, 2023
本研究提出一种基于可迁移语言模型和动态最大池化的情感分类器,旨在通过应用自注意力机制和加权交叉熵损失,改善口语对话中的情境信息和类别不均衡问题,并通过后训练和微调机制,利用多种机器学习技术来提高模型性能,实验结果表明,该模型在 Friends 和 EmotionPush 数据集上表现优异,且在 EmotionX 2019 挑战中也取得了竞争性的表现。
Jun, 2019
在这篇研究论文中,我们使用最近的大型视觉语言模型来探讨两种主要方法:图像字幕生成与仅使用语言的 LLM,以及零样本和微调设置下的视觉语言模型。我们在 Emotions in Context(EMOTIC)数据集上评估这些方法,并展示出即使在小型数据集上进行微调,视觉语言模型的性能也能显著超过传统的基准方法。我们的研究结果旨在帮助未来的机器人和智能系统对情感进行敏感的决策和交互行为。
May, 2024
使用多模态信息、上下文和情感知识调整的对话型大型语言模型 (DialogueLLM),通过对 13,638 个多模态(文本和视频)情感对话进行微调,克服了大型语言模型在情感识别方面的局限性,并在三个基准情感对话识别数据集上进行了全面评估。
Oct, 2023
利用视觉和大规模语言模型(VLLMs)的开创性能力,我们提出了一种两阶段方法来增强上下文情绪分类,首先利用 VLLMs 生成自然语言描述主体与视觉情境之间的明显情绪,然后将这些描述与图像输入一起用于训练融合文本和视觉特征的基于变换器的结构,在不引入复杂训练方法的情况下显著优于单一模态,并且在 EMOTIC、CAER-S 和 BoLD 三个数据集上达到了与更复杂方法相媲美甚至更高的准确性。
Apr, 2024
通过提出一种基于分层 Transformer 框架的情感识别方法,该方法结合了预训练语言模型和说话人嵌入,能在不同背景环境和不同说话人的情况下有效地捕捉言语的情感信息,实验结果表明该方法在三个对话数据集上分别取得了 1.98%、2.83%和 3.94%的 F1 宏平均分数提升。
Feb, 2020
本文提出了一种端到端的 RNN 架构,用于处理多模态情感分析和情感检测,该模型考虑到了当前系统所存在的缺点并展现出了领先的性能。
Feb, 2020
本文提出了一种知识增强型 Transformer (KET) 模型,结合分层自注意力机制和上下文感知情感图注意力机制,成功解决了分析对话中情绪所面临的常识和上下文理解问题,实验结果表明 KET 模型在情感检测方面表现良好,F1-score 明显高于当前最先进的模型。
Sep, 2019
本文介绍了 EmotionLines 数据集,这是第一个只基于文本内容在每个对话中为所有话语进行情感标注的数据集,共包括来自 Friends 电视剧和私人 Facebook 信使对话的 2000 个对话中的 29245 种话语,并为 EmotionLines 中的情感检测模型提供了多个强基线。
Feb, 2018