理性感知:由自我呈现理论引导的 LLM 增强型共情响应生成
大型语言模型在培养有同理心的对话、构建和谐社会关系以及发展有帮助的人工智能方面具有至关重要的作用。本研究通过实证调查了大型语言模型在生成有同理心的回应方面的性能,并提出了三种改进方法:语义上下文学习、两阶段交互生成和与知识库的结合。广泛的实验证明,我们的方法能够显著改善大型语言模型的性能,在自动评估和人工评估方面达到最先进的水平。此外,我们还探索了 GPT-4 模型模拟人工评估者的可能性。
Oct, 2023
通过使用心理学实践中的认知重评方式,本研究设计出一种具有高级心理能力的大型语言模型,经过专家评估证实,即使是由 RESORT 引导的规模为 7B 的大型语言模型也能够生成能够帮助用户认知重评自身情况的共情回应。
Apr, 2024
为解决对话中情感的动态性和共情生成中的常识知识冲突问题,我们提出了一种串行编码和情感 - 知识相互作用(SEEK)方法,使用细粒度编码策略和知情与情感的相互作用建模,从而在共情对话生成方面表现出色。
Oct, 2022
本文提出了一种新的基于常识的共情反应生成方法,除了识别用户情感外,还考虑了对用户情况的认知理解,实验结果表明本方法在自动和人工评估中均优于基线模型,能够生成更具信息和共情性的响应。
Sep, 2021
本篇论文探讨将理性和情感融合到人工智能对话代理中的可行性,并提出了 CARE 模型,一种基于常识感知的情感响应生成模型,实验证明该模型比仅关注单一方面的现有模型在生成情感响应方面更加准确。
Dec, 2020
本研究通过比较五款大型语言模型(LLMs)生成的相应和传统对话系统及人工生成的相应,发现 LLMs 在大多数情景中表现出更高的同理心,从而探索并验证 LLMs 在模拟心理咨询对话中生成同理心回应的能力。
Oct, 2023
情感回应生成是理解对话表述中的认知和情感状态并生成适当回应。本文提出了一种迭代联想记忆模型 (IAMM),通过使用新颖的二阶交互注意机制,迭代捕捉对话表述和情境、对话历史以及记忆模块 (用于存储关联词) 之间的重要关联词,从而准确而细致地理解表述。实验验证了该模型的有效性,并且语言模型的变化实验也表明关注关联词可以提高情感的理解和表达。
Feb, 2024
通过使用多轮对话历史记录和更接近心理咨询师表达方式的回复进行微调,可以显著增强大型语言模型在心理辅导领域的共情能力。
Nov, 2023
通过比较基于 LLMs 生成的回应与非基于 LLMs 生成的回应的系统,研究了生成回应对主观评价(如情绪变化、认知变化和对话质量)的影响。结果表明,使用 GPT-4 时,情绪变化、共情和其他对话品质显著改善,说明 GPT-4 具有较高的心理咨询能力。然而,研究还指出,即使使用了人类心理咨询数据集训练的对话模型,与基于情景的对话相比,并不能产生更好的结果。在使用了规则、情景或示例回应的系统中,可以通过人工专业人士提前使用 LLMs 生成示例回应或回应模板的方式呈现基于 LLMs 生成的回应,并且直接与用户在现实的心理健康服务中进行交互,这可能引发一些伦理问题。
Jan, 2024
提出了 PerceptiveAgent,一种具有共情能力的多模式对话系统,通过集成语音模态感知来识别言辞背后更深层次或更微妙的意义,实验结果表明,PerceptiveAgent 在情境理解方面表现出色,能够准确辨别发言者的真实意图,即使语言意义与讲话者真实感受相悖产生更细致和富有表达力的口头对话。
Jun, 2024