聊天机器人的心理健康评估
通过 PRISMA 框架综合文献综述,研究了 534 篇计算机科学和医学领域发表的关于建立与心理健康相关的对话代理的论文,发现了 136 篇重要论文,重点关注对话建模和实验设计技术的多样特征,建议以透明度、伦理和文化异质性为基础,实现心理健康对话代理的跨学科发展。
Oct, 2023
Chatbots can help diagnose depression by combining task-oriented conversations with empathy-related chit-chat, as demonstrated by an ontology-based framework applied to the D$^4$ dataset, resulting in improved task completion and emotional support generation.
Apr, 2024
通过对来自不同国家背景的 21 位个体进行访谈,我们调查了使用 LLM 聊天机器人进行心理健康支持的人们的亲身经历,并对用户如何为他们的聊天机器人创造独特的支持角色、填补日常护理的空白以及在寻求聊天机器人支持时如何应对相关的文化限制进行了分析。我们将分析基于心理治疗文献中有效支持的概念,并介绍了治疗性对齐的概念,即将人工智能与心理健康背景下的治疗价值对齐。我们的研究为设计师如何以道德且有效的方式应对 LLM 聊天机器人和其他人工智能心理健康支持工具在心理健康护理中的使用提供了建议。
Jan, 2024
通过对有关心理健康支持的批判性问题的评估,本文提出了一个结构化框架,旨在应对与自主任务 AI 在心理健康领域的发展所相关的伦理和实际挑战,并定义了 AI 代理在支持心理健康方面的等级自主性、伦理要求和有益的默认行为。此外,评估了十种先进的语言模型,结果发现这些现有模型不能达到人类专业人员的标准,不能适应细微差别和理解上下文,可能导致用户受伤甚至加重症状。因此,需要探索解决方案来增强当前模型的安全性,以确保它们能可靠地检测和管理常见心理障碍的症状,从而避免对用户的伤害。这需要与我们研究中提出的伦理框架和默认行为相一致,强调模型开发人员有责任根据这些指南改进其系统,以防止当前人工智能技术对用户心理健康和安全造成风险。
Apr, 2024
为了支持文本媒体在心理健康领域的应用,特别是危机关怀方面,我们正在开发一种使用按键动态和情感分析相结合的 passsive 情感识别系统。我们的初步研究结果表明,分析短信和键盘输入模式可以提供情感信息,以支持用户和接触者。我们利用初步研究结果探讨了将人工智能应用于支持心理健康提供者提供更好关怀的前进方向。
Jun, 2024
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低 2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
我们开发了三种聊天机器人,旨在为产后护理者提供特定情境下的共情支持,并通过基于规则和生成模型的指标对其性能进行评估。研究表明,基于规则的模型在共情度和与真实参考接近程度方面表现最佳,而人们更喜欢基于规则的聊天机器人,因为其具备特定情境下的人性回复。然而,我们的生成模型在训练数据集限制下,偶尔会产生混乱或荒谬的回复。最后,我们讨论了支持心理健康挑战个体的基于规则和生成模型的实际好处,并对大型语言模型在数字心理保健领域的可能性和风险进行了讨论。
Aug, 2023
本论文旨在研究将 ChatGPT 用于精神科门诊情景下精神医生和患者模拟对话中的应用及评估行为和用户体验的可行性,并探讨提示设计对聊天机器人行为和用户体验的影响。
May, 2023
本篇论文采用先前的大规模预训练和移情对话数据来制造共情性对话,并采用多轮对话的安排来维持上下文,成功创建了一种用于心理健康应用的生成性共情开放域聊天机器人,并取得了现有测试集的最佳成果。
Nov, 2021
使用 QA 方法和统一 QA 模型在两个大型的精神健康数据集上评估心理健康风险,并通过差分隐私来保护用户数据,结果表明在精神健康用例中将风险评估建模为 QA 任务具有良好的性能,为隐私保护诊断系统的发展提供了一个有前途的研究方向。
Jun, 2023