使用助理进行领域特定的心理治疗聊天机器人的改进
本文探讨了大型语言模型在心理咨询中的应用,通过专用提示信息来提高其在提供共情、相关和支持性回应方面的性能,研究结果表明我们的训练模型优于几个基线模型,凸显其作为可扩展且易于获取的心理健康支持工具的潜力。
Jun, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低 2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
大型语言模型(LLM)助手是帮助用户浏览复杂多功能软件的潜在替代方法。我们通过与 16 名参与者的实验和后续访谈对 LLM 生成的软件指导进行了研究。我们比较了基准 LLM 助手与一种针对特定软件背景优化过的 LLM 助手 SoftAIBot,后者还提供了构建适当提示的指南。但令人惊讶的是,虽然 SoftAIBot 优于基准 LLM,但我们的结果显示,无论是否使用提示指南和领域上下文的集成,LLM 的使用和用户感知没有显著差异。大多数用户难以理解提示文本与 LLM 的回应之间的关联,并且通常逐字逐句地遵循 LLM 的建议,即使是错误的。这导致在使用 LLM 的软件任务建议时出现困难,降低了任务完成率。我们的详细分析还表明,用户对 LLM 的回应中的错误毫不知情,这表明他们在软件专业知识的缺乏和评估 LLM 助手的能力之间存在差距。随着设计领域特定 LLM 助手的推动日益增加,我们强调将可解释的、上下文感知的提示融入 LLM 中的重要性,以帮助用户理解基于提示的交互,识别偏见,并最大化 LLM 助手的效用。
Feb, 2024
全球精神健康危机,人工智能和大型语言模型能够支持或提供心理咨询,但其应用也引发了准确性、有效性、可靠性的担忧。本文研究了大型语言模型在心理咨询中面临的主要挑战,包括模型错觉、可解释性、偏见、隐私和临床有效性,并探讨了解决这些挑战的潜在方案,以改进心理健康护理。
Nov, 2023
这项研究主要探讨了大型语言模型(LLMs)在与高功能自闭症青少年进行互动语言治疗中的效果。通过评估 LLM 在治疗环境中参与共情、适应性和情境适当性交互的能力,研究结果表明 LLM 在支持性治疗工具方面具有巨大潜力,显示出在情感共鸣和对话适应性方面的优势,但也指出实现人类治疗师所具备个性化和情感理解深度的挑战,强调了应用人工智能于治疗环境中的伦理考虑的重要性。该研究为利用 LLM 进行自闭症青少年心理咨询提供了有价值的洞察力,并强调了在心理健康护理中探索人工智能作用的未来需要持续发展以增强这些模型在治疗环境中的能力的必要性。
Nov, 2023
该研究提出了 Psy-LLM 框架,这是利用大型语言模型(LLMs)进行在线心理咨询问答的基于人工智能的系统,旨在提供心理健康支持,并通过评估证明了其在生成连贯和相关答案方面的有效性。
Jul, 2023
提出了一个系统的方法,用于检验领域知识和大型语言模型在代表危机辅导员与求助者之间的对话时的表现,结果表明领域知识和语言模型生成的特征能够更好地描述咨询对话。
Feb, 2024
通过离线强化学习,我们利用决策变压器架构在患者和心理健康专业人员之间的咨询对话中进行主题推荐,展示了优于基准强化学习方法的改进,并提出了一种新的系统来利用我们模型的输出作为相同任务的大型语言模型的合成标签进行微调。
May, 2024
我们提出了一个使用大型语言模型将单轮心理疗法咨询会话转化为多轮交互的流程,通过信息提取和多轮咨询生成两个主要步骤,显著提高了大型语言模型在心理健康咨询方面生成高质量多轮对话的能力。
Jun, 2024
通过对来自不同国家背景的 21 位个体进行访谈,我们调查了使用 LLM 聊天机器人进行心理健康支持的人们的亲身经历,并对用户如何为他们的聊天机器人创造独特的支持角色、填补日常护理的空白以及在寻求聊天机器人支持时如何应对相关的文化限制进行了分析。我们将分析基于心理治疗文献中有效支持的概念,并介绍了治疗性对齐的概念,即将人工智能与心理健康背景下的治疗价值对齐。我们的研究为设计师如何以道德且有效的方式应对 LLM 聊天机器人和其他人工智能心理健康支持工具在心理健康护理中的使用提供了建议。
Jan, 2024