图像标题的情感背景评估
在这篇研究论文中,我们使用最近的大型视觉语言模型来探讨两种主要方法:图像字幕生成与仅使用语言的 LLM,以及零样本和微调设置下的视觉语言模型。我们在 Emotions in Context(EMOTIC)数据集上评估这些方法,并展示出即使在小型数据集上进行微调,视觉语言模型的性能也能显著超过传统的基准方法。我们的研究结果旨在帮助未来的机器人和智能系统对情感进行敏感的决策和交互行为。
May, 2024
利用视觉和大规模语言模型(VLLMs)的开创性能力,我们提出了一种两阶段方法来增强上下文情绪分类,首先利用 VLLMs 生成自然语言描述主体与视觉情境之间的明显情绪,然后将这些描述与图像输入一起用于训练融合文本和视觉特征的基于变换器的结构,在不引入复杂训练方法的情况下显著优于单一模态,并且在 EMOTIC、CAER-S 和 BoLD 三个数据集上达到了与更复杂方法相媲美甚至更高的准确性。
Apr, 2024
本文提出了一种从图像中提取高级语境表示的方法,利用单个线索和单个编码流与情感相关联,并且该模型的执行效率比以前的模型更高,其在 EMOTIC 数据集上达到了 0.3002 的 mAP 并且能够在消费级硬件上以每秒大约 90 帧的速度执行,容易部署在解决与情感识别相关的现实问题中。
May, 2023
使用多模态信息、上下文和情感知识调整的对话型大型语言模型 (DialogueLLM),通过对 13,638 个多模态(文本和视频)情感对话进行微调,克服了大型语言模型在情感识别方面的局限性,并在三个基准情感对话识别数据集上进行了全面评估。
Oct, 2023
利用 LLMs(大型语言模型)估计与文本相关的情感状态摘要。通过对亚马逊产品评论的情感分析,将情感描述符映射到 PCA 类型的空间中,并探索通过尾部提示来引发改进当前文本状态的行动描述,然而实验结果表明这并不是一项直接可行的任务。
Oct, 2023
利用大型语言模型的表达能力,为输入文本合成额外的上下文,以增加其与带有注释的情感标签的关联性。通过提出文本上下文的形式化定义,并使用提示策略增强这种上下文信息,我们通过人工评估和实证评估证明了我们的方法改善了输入和人工注释标签之间的关联性。
Nov, 2023
本研究利用大型语言模型(LLMs)的人工神经元研究人类情感推断机制,发现 LLMs 基于情感知识的概念结构与人类行为中的离散情感的结构相似,且它基于 14 个概念属性的情感推断依赖程度与人类依赖程度相近,这为情感知识在大型语言模型中的出现提供了直接证据,并建议其对离散情感推断至关重要。
Feb, 2023
本文探讨了如何将类人情感和伦理考虑整合到大型语言模型(LLM)中,并通过协作式 LLM 对八种基本人类情感进行建模,以及通过自我监督学习算法与人类反馈指导在 LLM 中嵌入潜在的伦理维度。利用该方法,LLMs 能够进行自我评估和调整以符合伦理准则,并提高其生成与情感共鸣和伦理一致的内容的能力。所提出的方法和案例研究展示了 LLMs 超越纯文本和图像生成,进入共情互动和有原则决策领域的潜力,并在情感意识和伦理意识的 AI 系统发展中树立了新的范例。
Apr, 2024