LLMs 的多彩未来:评估和改进 LLMs 作为酷儿青少年的情感支持者
利用大型语言模型的能力,本研究结合人工智能和人类洞察力创建了一个详尽的情感支持对话数据集,通过递归生成方法,优化了情感支持机器人,为情感支持领域的进一步研究和实施铺平了道路。
Aug, 2023
该研究探讨使用大型语言模型(LLMs)分析 Reddit 用户的文本评论,旨在实现两个主要目标:首先,找出支持预定义心理评估自杀风险的关键摘录;其次,总结材料以证实预先分配的自杀风险水平。该研究仅限于在本地运行的 “开源” LLMs 的使用,从而增强数据隐私。此外,该研究优先考虑计算要求低的模型,使其可供具有有限计算预算的个人和机构使用。该实施策略仅依靠精心设计的提示和语法来指导 LLM 的文本补全。尽管简单,评估指标显示出卓越结果,使其成为一种重要的关注隐私和成本效益的方法。这项工作是 2024 年计算语言学和临床心理学(CLPsych)共享任务的一部分。
Feb, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低 2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
儿童和青少年的心理健康在过去几年中不断恶化。大型语言模型(LLMs)的出现为监测和干预的成本和时间效率提供了很大希望。我们创建了一个 Reddit 帖子的新数据集,经过专家精神科医生的标注,用于以下类别:创伤,不稳定性,病情,症状,自杀倾向和治疗,并将专家标签与两个表现最佳的 LLMs(GPT3.5 和 GPT4)的注释进行比较。我们发现 GPT4 与人际标注者一致性的表现相当,并且合成数据的性能要高得多,但我们发现模型有时仍会在否定和事实性问题上犯错误,合成数据的更高性能是由于真实数据的复杂性而不是固有优势。
Apr, 2024
全球心理健康问题的比例正在上升,现有的心理卫生模型已无法满足需求;大型语言模型 (LLMs) 的出现给人们带来了巨大的希望,有望创造新颖的、大规模的解决方案来支持心理健康。在这篇综述中,我们总结了现有文献关于使用 LLMs 提供心理健康教育、评估和干预的研究,重点强调了每个领域中的机遇。我们还强调了 LLMs 应用于心理健康所面临的风险,并鼓励采取策略来减轻这些风险。急需提供心理健康支持的紧迫性必须与负责任的心理健康 LLMs 的开发、测试和部署相平衡。特别重要的是,确保心理健康 LLMs 针对心理健康进行优化,增加心理健康公平性,遵守伦理标准,并确保人们,包括那些有心理健康问题经验的人,在从开发到部署的各个阶段都参与其中。优先考虑这些努力将减少对心理健康的潜在伤害,并最大程度上确保 LLMs 对全球心理健康产生积极影响。
Mar, 2024
总结和概括了大型语言模型(LLMs)在心理健康领域的应用,包括早期筛查、数字干预和其他临床应用领域的强项、限制、挑战和机遇,并指出了 LLMs 在心理健康问题检测和个性化医疗方面的有效性,同时也提出了关于文本一致性、幻觉内容和缺乏伦理框架的风险以及 LLMs 作为创新临床工具的进一步研究和发展的必要性,强调 LLMs 应该是专业心理健康服务的补充而非替代。
Feb, 2024
该研究提出了 Psy-LLM 框架,这是利用大型语言模型(LLMs)进行在线心理咨询问答的基于人工智能的系统,旨在提供心理健康支持,并通过评估证明了其在生成连贯和相关答案方面的有效性。
Jul, 2023
大型语言模型在心理健康方面表现出很大的潜力,但使用它们时需要保持谨慎和考虑,把它们视为辅助人类专业技术而非替代品,因为它们可能产生幻觉般的输出,并且在心理健康咨询中,人类辅导员的情感理解、细致解读和背景意识仍然不可替代。
Nov, 2023
通过对来自不同国家背景的 21 位个体进行访谈,我们调查了使用 LLM 聊天机器人进行心理健康支持的人们的亲身经历,并对用户如何为他们的聊天机器人创造独特的支持角色、填补日常护理的空白以及在寻求聊天机器人支持时如何应对相关的文化限制进行了分析。我们将分析基于心理治疗文献中有效支持的概念,并介绍了治疗性对齐的概念,即将人工智能与心理健康背景下的治疗价值对齐。我们的研究为设计师如何以道德且有效的方式应对 LLM 聊天机器人和其他人工智能心理健康支持工具在心理健康护理中的使用提供了建议。
Jan, 2024
本研究通过比较五款大型语言模型(LLMs)生成的相应和传统对话系统及人工生成的相应,发现 LLMs 在大多数情景中表现出更高的同理心,从而探索并验证 LLMs 在模拟心理咨询对话中生成同理心回应的能力。
Oct, 2023