MindScape研究:整合大型语言模型和行为感知以实现个性化的人工智能驱动的日记体验
智能手机的问题使用对身心健康产生了负面影响,然而现有的说服技术不足以根据用户的身体状况和心理状态提供灵活的说服内容。我们通过调查研究,首先总结了导致智能手机问题使用背后的心理状态:无聊、压力和惰性,从而设计出了四种说服策略:了解、安慰、唤起和支持习惯。我们利用大型语言模型 (LLMs) 实现自动和动态生成有效说服内容的能力,并开发了一种名为MindShift的新型LLM驱动的智能手机问题使用干预技术。MindShift接受用户的即时身体状况、心理状态、应用使用行为、用户目标和习惯作为输入,并生成适当的说服策略的高质量和灵活性强的说服内容。我们进行了为期5周的实地实验 (N=25),将MindShift与基准技术进行了比较。结果显示,MindShift使干预接受率提高了17.8-22.5%,智能手机使用频率降低了12.1-14.4%。此外,用户的智能手机成瘾程度显著下降,自我效能感提高。我们的研究为在其他行为变化领域利用LLMs进行上下文感知的说服提供了启示。
Sep, 2023
MindfulDiary是一个移动日记应用程序,整合了一个大型语言模型,帮助精神科患者通过对话记录每天的经历,它可以在临床设置中提供技术可行性和整合的潜力。
Oct, 2023
使用大型语言模型(LLMs)综合多传感器数据生成临床有用的洞察力,首次展示使用LLMs进行二元抑郁症分类的准确性超过了现有技术,而且还强调了人工智能与医生领域专业知识和患者背景相结合的人工智能协同方法在临床决策支持方面的价值。
Nov, 2023
近年来,大型语言模型(LLM)在数字精神健康工具设计、开发和实施领域展示了潜在的机遇和风险,我们提出了四个应用领域,包括对需要关怀的个体的求助行为、社区关怀提供、机构和医疗关怀提供,以及更大规模的社会关怀生态系统,并思考了LLM技术如何提升心理健康。本文的发现有助于未来研究、倡导和监管工作,以创建更负责任、用户友好、公平和安全的基于LLM的精神健康治疗和干预工具。
Nov, 2023
通过使用基于大规模语言模型的 SeSaMe 框架,我们可以减轻参与者在数字心理健康研究中的负担,模拟他们在心理量表上的回应,并通过实验证明其在训练机器学习模型方面具有潜力,同时解决了长期自我报告导致的问题。
Mar, 2024
MindScape通过整合时间序列行为模式(如对话参与度、睡眠、位置)与大型语言模型(LLMs)来研究促进自我反思和幸福感的上下文AI记录的好处,此法将行为感知与LLMs相融合很可能开启AI领域新的领域。本文讨论了MindScape上下文记录应用的设计,该应用利用LLMs和行为感知生成上下文化和个性化的记录提示,以鼓励自我反思和情感发展。我们还讨论了基于初步用户研究的学生群体上下文AI记录的有效性在大学校园中的评估。MindScape代表了将行为智能嵌入AI的新应用类别。
Mar, 2024
该研究利用大型语言模型通过手机感应数据预测情绪结果,显示出大型语言模型在推断普遍幸福感方面的有效性,揭示了智能手机行为模式与情绪状态之间的复杂联系,是首个将大型语言模型应用于情绪状态预测和数字表型任务的研究。
Jul, 2024
通过在自我指导的健身锻炼中融入教练等社会支持形式,传统的支持方式因高成本和复杂协调而通常无法实现。大型语言模型(LLMs)通过提供类似于人类对话的功能,有望提供社会支持的效果。然而,对于LLMs在支持行为改变方面的深入、实地调查仍未得到充分探索。我们进行了两项随机实验,评估了LLM代理在用户参与正念锻炼方面的影响。首先是一项单次会议的研究,有502名众包工作者参与;第二是为期三周的研究,包括54名参与者。我们探索了两种类型的LLM代理:提供信息的代理和促进自我反思的代理。两种代理都增强了用户进行正念锻炼的意愿。然而,仅提供信息的LLM代理,具有友好形象,能够显著提高用户对锻炼的参与度。我们的研究结果表明,特定的LLM代理可能弥合数字健康干预中的社会支持缺口。
Jul, 2024
本文研究了大型语言模型(LLMs)在心理健康护理中的应用,评估其在人类参与者中的有效性及临床适用性。研究发现,尽管LLMs在扩展心理健康护理服务方面具有潜力,但多数研究方法不标准,并且缺乏对隐私、安全和公平性的深入探索,表明需要更严格的评估和伦理监督以确保其安全有效地整合入临床实践。
Aug, 2024
本研究针对大学生面临的心理健康挑战,探索他们对大型语言模型(LLMs)在提升心理健康方面应用的看法。通过对十位多样化学生的访谈,发现学生对LLMs的接受度因场景而异,指出了其潜在好处与局限性,这为如何有效设计和实施AI技术以支持学生心理健康提供了宝贵见解。
Sep, 2024