将治疗视为自然语言处理任务:心理学家对大型语言模型与人类同侪在认知行为疗法中的比较
我们提出了一种名为BOLT的新型计算框架,用于研究大型语言模型(LLMs)在担任治疗师角色时的对话行为。我们开发了一种上下文学习方法,定量测量LLMs的行为,基于包括反映、提问、解决方案、正常化和心理教育在内的13种不同的心理治疗技术。我们通过比较LLM治疗师与高、低质量人类治疗师的行为,并研究如何调整其行为以更好地体现高质量治疗中观察到的行为,发现LLMs的行为更接近低质量治疗,需要进一步研究来确保质量治疗。
Jan, 2024
通过比较基于LLMs生成的回应与非基于LLMs生成的回应的系统,研究了生成回应对主观评价(如情绪变化、认知变化和对话质量)的影响。结果表明,使用GPT-4时,情绪变化、共情和其他对话品质显著改善,说明GPT-4具有较高的心理咨询能力。然而,研究还指出,即使使用了人类心理咨询数据集训练的对话模型,与基于情景的对话相比,并不能产生更好的结果。在使用了规则、情景或示例回应的系统中,可以通过人工专业人士提前使用LLMs生成示例回应或回应模板的方式呈现基于LLMs生成的回应,并且直接与用户在现实的心理健康服务中进行交互,这可能引发一些伦理问题。
Jan, 2024
通过方面导向的总结来评估大型语言模型在心理健康咨询中的应用,研究发现任务特定的语言模型在心理咨询的各个方面表现出较好的综合性能。
Feb, 2024
通过 HealMe 模型,本文探讨了大型语言模型在认知重构中的作用,以及它在心理治疗中引起积极影响的有效性和潜在的正面影响,通过采用基于心理治疗框架的移情对话,指导客户从情况、观点和行动建议等方面进行认知重构,实现深层次负面思维的转变和理性维度的培养。
Feb, 2024
我们提出了一个新颖的框架来评估大型语言模型(LLMs)的细致对话能力,将其应用于心理健康领域,并发现GPT4 Turbo在特定主题上表现出与经过验证的治疗师高度相关的成绩,从而帮助研究人员开发更好的LLMs以更积极地支持人们的生活。
Mar, 2024
通过大型语言模型,本研究设计了基于认知行为疗法的特定提示,生成了针对中国心理健康问答的CBT QA数据集,并利用该数据集对大型语言模型进行微调,从而产生了专为认知行为疗法技术设计的大规模语言模型CBT-LLM。经验评估表明CBT-LLM在心理健康支持任务中能够产生结构化、专业和高度相关的回应,展示了其实用性和质量。
Mar, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像GPT-4这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
本研究探讨了大型语言模型(LLMs)在认知行为疗法(CBT)中应用的可能性,回应了心理健康专家的担忧。通过分析真实的CBT语料库并建立自动评估框架,研究发现LLMs在心理咨询领域具有很大潜力,尤其是在与其他技术相结合后,能够显著提升CBT的效果。
Jul, 2024
本文研究了大型语言模型(LLMs)在心理健康护理中的应用,评估其在人类参与者中的有效性及临床适用性。研究发现,尽管LLMs在扩展心理健康护理服务方面具有潜力,但多数研究方法不标准,并且缺乏对隐私、安全和公平性的深入探索,表明需要更严格的评估和伦理监督以确保其安全有效地整合入临床实践。
Aug, 2024
本研究解决了大型语言模型在提供问题解决疗法(PST)时的提示技术效果不足的问题。通过对提示工程的评估,展示了如何提高模型在症状识别和个性化目标设定阶段的表现,尽管存在一定限制。该研究为心理治疗的AI应用开辟了新的可能性,尤其在心理健康专业人员短缺的背景下。
Aug, 2024