将大型语言模型应用于心理健康护理:人类评估生成任务的范围审查
本研究通过比较五款大型语言模型(LLMs)生成的相应和传统对话系统及人工生成的相应,发现LLMs在大多数情景中表现出更高的同理心,从而探索并验证LLMs在模拟心理咨询对话中生成同理心回应的能力。
Oct, 2023
大型语言模型在心理健康方面表现出很大的潜力,但使用它们时需要保持谨慎和考虑,把它们视为辅助人类专业技术而非替代品,因为它们可能产生幻觉般的输出,并且在心理健康咨询中,人类辅导员的情感理解、细致解读和背景意识仍然不可替代。
Nov, 2023
近年来,大型语言模型(LLM)在数字精神健康工具设计、开发和实施领域展示了潜在的机遇和风险,我们提出了四个应用领域,包括对需要关怀的个体的求助行为、社区关怀提供、机构和医疗关怀提供,以及更大规模的社会关怀生态系统,并思考了LLM技术如何提升心理健康。本文的发现有助于未来研究、倡导和监管工作,以创建更负责任、用户友好、公平和安全的基于LLM的精神健康治疗和干预工具。
Nov, 2023
大语言模型在精神卫生保健中展示了广泛的应用,涵盖诊断、患者支持等方面。然而,数据可用性、精确处理心理状态和有效评估方法等问题,导致了临床适用性和伦理考虑方面的差距存在,要推动精神卫生保健中大语言模型的进一步发展,需要依靠多学科协作、数据集开发、技术精进和伦理融合等方面的全面努力。
Jan, 2024
全球心理健康问题的比例正在上升,现有的心理卫生模型已无法满足需求;大型语言模型(LLMs)的出现给人们带来了巨大的希望,有望创造新颖的、大规模的解决方案来支持心理健康。在这篇综述中,我们总结了现有文献关于使用LLMs提供心理健康教育、评估和干预的研究,重点强调了每个领域中的机遇。我们还强调了LLMs应用于心理健康所面临的风险,并鼓励采取策略来减轻这些风险。急需提供心理健康支持的紧迫性必须与负责任的心理健康LLMs的开发、测试和部署相平衡。特别重要的是,确保心理健康LLMs针对心理健康进行优化,增加心理健康公平性,遵守伦理标准,并确保人们,包括那些有心理健康问题经验的人,在从开发到部署的各个阶段都参与其中。优先考虑这些努力将减少对心理健康的潜在伤害,并最大程度上确保LLMs对全球心理健康产生积极影响。
Mar, 2024
总结和概括了大型语言模型(LLMs)在心理健康领域的应用,包括早期筛查、数字干预和其他临床应用领域的强项、限制、挑战和机遇,并指出了LLMs在心理健康问题检测和个性化医疗方面的有效性,同时也提出了关于文本一致性、幻觉内容和缺乏伦理框架的风险以及LLMs作为创新临床工具的进一步研究和发展的必要性,强调LLMs应该是专业心理健康服务的补充而非替代。
Feb, 2024
该研究回顾了健康医疗领域中基于大型语言模型的人工智能生成文本的人工评估方法,并使用QUEST框架提出了一个标准化和统一的人工评估方法,旨在提高可靠性和适用性。
May, 2024
该研究比较了两个大型语言模型GPT-4和Chat-GPT在回应18个心理提示方面的表现,以评估它们在心理健康护理环境中的潜在适用性。结果显示GPT-4在生成临床相关和富有同理心的回应方面更有效,提供更好的支持和指导。这项研究为大型语言模型在心理健康护理领域的适用性提供了贡献,强调了在该领域持续研究和开发的重要性。需要进一步研究了解造成两个模型性能差异的具体因素,并探索其在不同人群和心理健康状况中的普适性。
May, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像GPT-4这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
本文探讨了大型语言模型在心理咨询中的应用,通过专用提示信息来提高其在提供共情、相关和支持性回应方面的性能,研究结果表明我们的训练模型优于几个基线模型,凸显其作为可扩展且易于获取的心理健康支持工具的潜力。
Jun, 2024