增强 AI 驱动的心理咨询:使用大语言模型的分层提示
当代社交媒体领域中,用户表达负面情绪的数量惊人,其中一部分表现为强烈的自杀意向。因此,需要训练有素的心理咨询师进行有效的心理干预。然而,这些专业人员的培养通常是一项重要但耗时的任务,因此,调动非专业人员或志愿者在这方面的能力成为一个紧迫的问题。这篇论文介绍了一种基于大型语言模型构建的新模型,完全协助非专业人员在在线用户对话中提供心理干预。该框架使得以有意义的方式利用非专业心理咨询师的能力成为可能。通过对十名专业心理咨询师的综合研究,评估了该系统在五个关键维度上的效果。研究结果证实我们的系统能够相对准确地分析患者的问题并提供专业水平的策略建议,从而增强非专业人员的支持。这项研究为大型语言模型在心理学领域的应用提供了有力的验证,并为基于社区的心理健康支持奠定了基础。
Aug, 2023
全球精神健康危机,人工智能和大型语言模型能够支持或提供心理咨询,但其应用也引发了准确性、有效性、可靠性的担忧。本文研究了大型语言模型在心理咨询中面临的主要挑战,包括模型错觉、可解释性、偏见、隐私和临床有效性,并探讨了解决这些挑战的潜在方案,以改进心理健康护理。
Nov, 2023
通过比较基于LLMs生成的回应与非基于LLMs生成的回应的系统,研究了生成回应对主观评价(如情绪变化、认知变化和对话质量)的影响。结果表明,使用GPT-4时,情绪变化、共情和其他对话品质显著改善,说明GPT-4具有较高的心理咨询能力。然而,研究还指出,即使使用了人类心理咨询数据集训练的对话模型,与基于情景的对话相比,并不能产生更好的结果。在使用了规则、情景或示例回应的系统中,可以通过人工专业人士提前使用LLMs生成示例回应或回应模板的方式呈现基于LLMs生成的回应,并且直接与用户在现实的心理健康服务中进行交互,这可能引发一些伦理问题。
Jan, 2024
通过离线强化学习,我们利用决策变压器架构在患者和心理健康专业人员之间的咨询对话中进行主题推荐,展示了优于基准强化学习方法的改进,并提出了一种新的系统来利用我们模型的输出作为相同任务的大型语言模型的合成标签进行微调。
May, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像GPT-4这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
本文探讨了大型语言模型在心理咨询中的应用,通过专用提示信息来提高其在提供共情、相关和支持性回应方面的性能,研究结果表明我们的训练模型优于几个基线模型,凸显其作为可扩展且易于获取的心理健康支持工具的潜力。
Jun, 2024
通过fine-tuning和真实对话,我们提出了一种具有共情和主动指导特性的心理健康大型语言模型WundtGPT,以协助心理学家在诊断中提问和症状详述的引导以及情感上的温暖安抚。
Jun, 2024
本文研究了大型语言模型(LLMs)在心理健康护理中的应用,评估其在人类参与者中的有效性及临床适用性。研究发现,尽管LLMs在扩展心理健康护理服务方面具有潜力,但多数研究方法不标准,并且缺乏对隐私、安全和公平性的深入探索,表明需要更严格的评估和伦理监督以确保其安全有效地整合入临床实践。
Aug, 2024
本研究解决了当前心理咨询中的人力注释效率低下、成本高和隐私保护等问题。提出了一种创新框架,通过角色扮演的方式使用两个大型语言模型(LLMs)来模拟辅导员与客户的对话。研究表明,该框架能够有效模拟心理咨询对话,并与专业辅导员的表现进行了深入对比分析,展现出其在心理健康领域的潜在影响。
Aug, 2024
本研究解决了大型语言模型在提供问题解决疗法(PST)时的提示技术效果不足的问题。通过对提示工程的评估,展示了如何提高模型在症状识别和个性化目标设定阶段的表现,尽管存在一定限制。该研究为心理治疗的AI应用开辟了新的可能性,尤其在心理健康专业人员短缺的背景下。
Aug, 2024