基于过程知识的学习,为临床医生提供友好的解释
通过引入、形式化和发展一个新的人工智能(AI)范式 —— 流程知识注入学习(PK-iL),大幅提高了深度学习算法的性能和自然语言解释能力,并为人类在现实世界中采用此技术提供了帮助。该方法构建了一个结构化的过程知识框架,明确解释了生成预测结果的底层过程,并在人类参与的定量人类评估中显示出竞争水平。
Apr, 2022
开发了第一个用于社交媒体上的可解释性心理健康分析的开源语言模型系列 MentalLLaMA,并通过 IMHI 数据集在正确性和解释质量方面接近最先进的判别方法。
Sep, 2023
提出了一种双提示方法,通过使用领域特定的信息和基于语言模型的一致性评估器,实现知识感知证据提取和证据总结,并综合实验证明了该方法的有效性和帮助临床医生评估心理状态进展的潜力。
Feb, 2024
通过使用 Proknow 和具有引导作用的自然语言问答生成方法,我们基于 449 个抑郁症和焦虑症患者的诊断谈话开发出一种具有安全约束和专业知识的诊断对话数据集。我们证明了在这个数据集上使用最先进的大规模语言模型的局限性,通过明确建模安全、知识捕获和可解释性,我们的算法提高了 82%以上的生成问题的安全性、解释性和过程指导。
May, 2023
该研究探讨使用大型语言模型(LLMs)分析 Reddit 用户的文本评论,旨在实现两个主要目标:首先,找出支持预定义心理评估自杀风险的关键摘录;其次,总结材料以证实预先分配的自杀风险水平。该研究仅限于在本地运行的 “开源” LLMs 的使用,从而增强数据隐私。此外,该研究优先考虑计算要求低的模型,使其可供具有有限计算预算的个人和机构使用。该实施策略仅依靠精心设计的提示和语法来指导 LLM 的文本补全。尽管简单,评估指标显示出卓越结果,使其成为一种重要的关注隐私和成本效益的方法。这项工作是 2024 年计算语言学和临床心理学(CLPsych)共享任务的一部分。
Feb, 2024
研究了使用社交媒体的语言特征来检测心理健康问题,并提出了一种能够有效利用领域知识、可被应用于其他心理障碍以及能够提供可解释检测结果的模型。
Jun, 2023
使用大型语言模型(LLMs)综合多传感器数据生成临床有用的洞察力,首次展示使用 LLMs 进行二元抑郁症分类的准确性超过了现有技术,而且还强调了人工智能与医生领域专业知识和患者背景相结合的人工智能协同方法在临床决策支持方面的价值。
Nov, 2023
当代社交媒体领域中,用户表达负面情绪的数量惊人,其中一部分表现为强烈的自杀意向。因此,需要训练有素的心理咨询师进行有效的心理干预。然而,这些专业人员的培养通常是一项重要但耗时的任务,因此,调动非专业人员或志愿者在这方面的能力成为一个紧迫的问题。这篇论文介绍了一种基于大型语言模型构建的新模型,完全协助非专业人员在在线用户对话中提供心理干预。该框架使得以有意义的方式利用非专业心理咨询师的能力成为可能。通过对十名专业心理咨询师的综合研究,评估了该系统在五个关键维度上的效果。研究结果证实我们的系统能够相对准确地分析患者的问题并提供专业水平的策略建议,从而增强非专业人员的支持。这项研究为大型语言模型在心理学领域的应用提供了有力的验证,并为基于社区的心理健康支持奠定了基础。
Aug, 2023
通过对大语料库(Med-PaLM 2)中明确训练的大型语言模型(LLMs)的能力进行研究,本文证明了这些模型能够在没有经过训练的情况下从病人采访和临床描述中预测精神功能。结果表明,Med-PaLM 2 能够评估多种精神疾病的精神功能,其中以基于标准评估的抑郁症评分的预测性能最强(准确率范围 = 0.80-0.84),与人类临床评定人员无显著差异(t (1,144)=1.20;p=0.23)。结果显示了通用的临床语言模型在根据患者和临床医生的自由描述预测精神风险方面的潜力。
Aug, 2023