一种用于可解释的心理健康语言模型的双提示方法
开发了第一个用于社交媒体上的可解释性心理健康分析的开源语言模型系列 MentalLLaMA,并通过 IMHI 数据集在正确性和解释质量方面接近最先进的判别方法。
Sep, 2023
全球精神健康危机,人工智能和大型语言模型能够支持或提供心理咨询,但其应用也引发了准确性、有效性、可靠性的担忧。本文研究了大型语言模型在心理咨询中面临的主要挑战,包括模型错觉、可解释性、偏见、隐私和临床有效性,并探讨了解决这些挑战的潜在方案,以改进心理健康护理。
Nov, 2023
该研究探讨使用大型语言模型(LLMs)分析 Reddit 用户的文本评论,旨在实现两个主要目标:首先,找出支持预定义心理评估自杀风险的关键摘录;其次,总结材料以证实预先分配的自杀风险水平。该研究仅限于在本地运行的 “开源” LLMs 的使用,从而增强数据隐私。此外,该研究优先考虑计算要求低的模型,使其可供具有有限计算预算的个人和机构使用。该实施策略仅依靠精心设计的提示和语法来指导 LLM 的文本补全。尽管简单,评估指标显示出卓越结果,使其成为一种重要的关注隐私和成本效益的方法。这项工作是 2024 年计算语言学和临床心理学(CLPsych)共享任务的一部分。
Feb, 2024
大型语言模型在心理健康方面表现出很大的潜力,但使用它们时需要保持谨慎和考虑,把它们视为辅助人类专业技术而非替代品,因为它们可能产生幻觉般的输出,并且在心理健康咨询中,人类辅导员的情感理解、细致解读和背景意识仍然不可替代。
Nov, 2023
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低 2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
GPT4 可以通过使用诊断推理提示模拟临床医生的常见临床推理过程,而不会损失诊断准确性,因此它可以为医生提供评估 LLMs 是否可信赖用于患者护理的手段。新的提示方法有潜力揭示 LLMs 的黑盒子,将它们推向在医学中安全有效使用的一步。
Aug, 2023
通过解决长期等待次名单和提供相关团队推荐,基于大型语言模型的端到端入食方法有助于缩短患者延迟时间和改善三级分类决策,适用于精神医疗保健。
Mar, 2024
通过对社交媒体数据进行分析,研究人员转向使用语言模型来评估精神健康,并引入了一种新的学习范式(PK-iL)来提供临床友好的解释,从而提高精神健康护理和预防策略的效果。
Jun, 2023
本文探讨了大型语言模型在心理咨询中的应用,通过专用提示信息来提高其在提供共情、相关和支持性回应方面的性能,研究结果表明我们的训练模型优于几个基线模型,凸显其作为可扩展且易于获取的心理健康支持工具的潜力。
Jun, 2024
使用大型语言模型(LLMs)综合多传感器数据生成临床有用的洞察力,首次展示使用 LLMs 进行二元抑郁症分类的准确性超过了现有技术,而且还强调了人工智能与医生领域专业知识和患者背景相结合的人工智能协同方法在临床决策支持方面的价值。
Nov, 2023