Sunnie: 一个基于人形化 LLM 的谈话代理人用于心理健康活动推荐
本研究描述了我们开发的智能稳健的 Nadine 社交机器人平台的社交机器人系统,通过整合大型语言模型(LLM)并巧妙利用这类模型的强大推理和遵循指令能力,实现了高级的类人情感和认知能力。这一方法与目前的基于 LLM 的最新技术代理相比是新颖的,因为其没有实现类人长期记忆或复杂的情绪评估。我们构建了一个社交机器人系统,通过多模式输入处理实现生成适当行为,相应识别用户的情节性记忆并模拟机器人与人类伙伴互动导致的情绪状态。特别是,我们引入了一个 LLM 代理框架,SoR-ReAct,作为我们系统中互动模块的核心组件。这一设计推进了社交机器人的发展,旨在提高人机互动的质量。
May, 2024
通过对来自不同国家背景的 21 位个体进行访谈,我们调查了使用 LLM 聊天机器人进行心理健康支持的人们的亲身经历,并对用户如何为他们的聊天机器人创造独特的支持角色、填补日常护理的空白以及在寻求聊天机器人支持时如何应对相关的文化限制进行了分析。我们将分析基于心理治疗文献中有效支持的概念,并介绍了治疗性对齐的概念,即将人工智能与心理健康背景下的治疗价值对齐。我们的研究为设计师如何以道德且有效的方式应对 LLM 聊天机器人和其他人工智能心理健康支持工具在心理健康护理中的使用提供了建议。
Jan, 2024
我们提出了一种基于大型语言模型和智能设备的对话式 AI 治疗师平台 (CaiTI),该平台可以通过自然和心理治疗对话来筛查日常功能,提供个性化对话流程,并提供认知行为疗法和动机性面谈等对话式心理治疗干预。通过与心理治疗师合作进行实验证明,CaiTI 能够与用户自然对话,准确理解和解释用户的回应,并适当有效地提供心理治疗干预,展示了 CaiTI 大型语言模型在心理治疗诊断和治疗中的潜力,以及日常功能筛查和预防性心理治疗干预系统的改进。
Mar, 2024
通过将大型语言模型(LLMs)整合到社交机器人中,本研究旨在解决传统基于脚本互动的对话方法在维持有趣的对话方面存在的局限性。我们引入了一个完全自动化的对话系统,利用 LLMs 生成具有有表情的机器人回应,与机器人的个性一致。我们结合两种模式的机器人行为:1)具有多种表现风格的文本转语音(TTS)引擎,和 2)用于机器人的动作库。我们开发了一个定制的最先进的情感识别模型,用于动态选择机器人的语调,并利用 LLM 输出中的表情符号作为生成机器人动作的线索。通过一个志愿者与社交机器人进行对话的试验,我们研究和分析了他们的反馈,对聊天记录进行了严格的错误分析,以阐明设计和实现问题。反馈普遍积极,参与者评论机器人具有共情力、乐于助人、自然和娱乐性。最负面的反馈是由于自动语音识别(ASR)错误,这对对话的影响有限。然而,我们观察到了一类较小的错误,如 LLM 的自我重复或虚构信息和人类回答的产生,这可能会破坏对话,引发了 LLM 应用中的重要问题。
Feb, 2024
通过 PRISMA 框架综合文献综述,研究了 534 篇计算机科学和医学领域发表的关于建立与心理健康相关的对话代理的论文,发现了 136 篇重要论文,重点关注对话建模和实验设计技术的多样特征,建议以透明度、伦理和文化异质性为基础,实现心理健康对话代理的跨学科发展。
Oct, 2023
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大型语言模型使用隐式和显式线索推断患者人口统计学特征,然后展示了患者子群之间存在统计上显著差异:对于黑人发帖的回应一直比其他人口统计群体的同一回应具有较低的同理心(比对照组低 2%-13%)。我们发现回应生成的方式显著影响回应的质量。最后,我们提出了大型语言模型在心理健康响应潜在部署中的安全指南。
May, 2024
本论文旨在研究将 ChatGPT 用于精神科门诊情景下精神医生和患者模拟对话中的应用及评估行为和用户体验的可行性,并探讨提示设计对聊天机器人行为和用户体验的影响。
May, 2023
借助五感、属性、情感状态、与交互者的关系和记忆,我们提出了一种新的方法来从大型语言模型中生成更加真实、一致的回答,旨在增强大型语言模型在会话交流中生成自然、真实反应的能力。通过我们的研究,我们希望为模仿小说人物的大型语言模型的改进能力做出贡献。我们在我们的 GitHub 上发布了一个新的基准数据集以及所有的代码、提示和样例结果。
Dec, 2023
提出和评估一种新颖的方法,在不依赖任何存储数据或预训练的情况下,在 LLM 代理之间进行知识蒸馏,以实时保留人类角色扮演中的独特语境,并评估我们的系统在模拟的真实世界任务中表现更好。
Mar, 2024