大语言模型时代的情感计算:来自自然语言处理的调研
本研究旨在通过深度学习和转移学习来提高情感计算中文段落情感识别精度。我们使用改进后的循环神经网络模型,并提出 Sent2affect 模型进行迁移学习。实验结果表明,我们的模型在6个基准数据集上表现出色,相对于传统机器学习方法有了显著提升。这些发现对情感计算的应用具有重要的启示意义。
Mar, 2018
本文综合评估了用于大规模异构多媒体数据的情感计算(AC)技术,包括心理学中广泛采用的典型情绪表示模型和基于手工特征和深度学习方法的代表性方法,并总结了现有算法的可用数据集。最终,我们讨论了多媒体情感计算的一些挑战和未来方向。
Oct, 2019
本文主要评估了ChatGPT在文本分类中的能力,尤其针对情感计算问题,实验结果显示,虽然ChatGPT表现良好,但相对于RoBERTa来说还有一个较大的提升空间。
Mar, 2023
本文探讨了情感计算领域中个性化的必要性,并对 state-of-the-art 的方法进行了综述和分类,包括针对特定目标的模型、群组特定模型、加权方法、微调方法、多任务学习、生成模型和特征增强。此外,文章还对文献进行了统计分析,提供了路线图供其他研究者参考。
Apr, 2023
本文介绍情感计算的重要性、方法和结果,着重探讨了机器学习和混合现实在情感计算中的应用,研究了最新的方法和数据资源,并讨论了情感计算在各种应用领域中的显著影响,从而帮助未来学者更好地理解情感计算的重要性和实用性。
May, 2023
本文研究了大型语言模型(尤其是生成预训练变压器)在各种语言相关任务上显示出的令人印象深刻的结果。我们探索了ChatGPT仅通过提示就能够执行情感计算任务的零点能力。我们显示ChatGPT a)能够在价值、唤起和支配维度上执行有意义的情绪分析,b)在情绪类别和这些情感维度方面具有有意义的情感表示,以及c)可以根据基于提示的OCC评估模型的计算实现,对情况进行基本的评估引发情绪的操作。这些发现具有很高的相关性:首先,它们表明解决复杂的情感处理任务的能力源于对广泛数据集进行基于语言的标记预测的训练。其次,它们显示了大型语言模型模拟、处理和分析人类情绪的潜力,这对于诸如情感分析、社交互动代理和社交机器人等各种应用具有重要意义。
Sep, 2023
本研究探索大型语言模型 (LLMs) 在对话中识别人类情感方面的能力,重点关注开放领域闲聊对话和任务导向对话,并通过评估和比较 LLMs 在情感识别方面的性能,利用 IEMOCAP、EmoWOZ 和 DAIC-WOZ 三个不同数据集进行研究,从非零样本和少样本学习以及任务特定微调的角度探索 LLMs 的模型容量,并考虑了自动语音识别 (ASR) 错误对 LLM 预测的潜在影响。通过本研究,我们旨在阐明 LLMs 在对话中能够模拟人类情感识别能力的程度。
Sep, 2023
大型语言模型的自动启动图形范例( Auto-Prompt Graphical Paradigm,APGP)可以通过结合刺激和框架启动来提高LLM在多个领域中的问题解决能力,进而实现问题抽象、多样化解决方案生成、全面优化以及提供答案后的自我验证,从而提高LLM在问题解决方面的效率和准确性,并为LLM的新应用开辟了新的道路。
Apr, 2024
负性提示将消极情绪刺激引入大型语言模型,提供了一种提高性能的机制,通过实验评估和注意力可视化得到了相关结果,为真实世界应用中大型语言模型的改进提供了新的见解。
May, 2024