MentalBERT:用于心理保健的公开预训练语言模型
本研究针对心理学领域缺乏定制的预训练模型,从中国社交媒体平台收集了 3.36 百万条文本,并加入心理学词典进行预训练改进,通过自适应训练开发出专门用于心理领域的模型,实验结果表明该模型在四个公共基准测试中表现优越且能够做出心理相关的预测。因数据隐私担忧,数据集不对公众开放,但预训练模型和代码可通过指定的链接公开获取。
Feb, 2024
本文针对心理健康领域的 Reddit 帖子的长序列建模问题,进行了领域特定的持续预训练,基于 XLNet 和 Longformer 训练了 MentalXLNet 和 MentalLongformer 模型,评估了这两个模型的心理健康分类性能和长距离能力,并在 HuggingFace 上发布了这两个模型。
Apr, 2023
使用社交媒体和预训练语言模型,探索如何利用用户生成的数据来预测心理障碍症状,并发现社交媒体数据是精神健康筛查的良好来源,预训练模型可以有效地自动化这一重要任务。
Jun, 2023
评估大型语言模型在理解人类心理健康状况表达方面的潜力,结果显示,基于 Transformer 的模型(如 BERT 和 XLNet)在 DAIC-WOZ 数据集上表现优于大型语言模型。
Jan, 2024
通过对有关心理健康支持的批判性问题的评估,本文提出了一个结构化框架,旨在应对与自主任务 AI 在心理健康领域的发展所相关的伦理和实际挑战,并定义了 AI 代理在支持心理健康方面的等级自主性、伦理要求和有益的默认行为。此外,评估了十种先进的语言模型,结果发现这些现有模型不能达到人类专业人员的标准,不能适应细微差别和理解上下文,可能导致用户受伤甚至加重症状。因此,需要探索解决方案来增强当前模型的安全性,以确保它们能可靠地检测和管理常见心理障碍的症状,从而避免对用户的伤害。这需要与我们研究中提出的伦理框架和默认行为相一致,强调模型开发人员有责任根据这些指南改进其系统,以防止当前人工智能技术对用户心理健康和安全造成风险。
Apr, 2024
使用社交媒体上用户生成的文本数据进行公共卫生监测的研究表明,使用预训练语言模型(PLM)的进展促进了针对社交媒体上公共卫生监测任务的新模型的开发。本文介绍了一种名为 PHS-BERT 的 PLM,该模型在公共卫生监测任务上的表现优于现有的 PLMs,并在广泛的数据集上表现出鲁棒性和泛化性。
Apr, 2022
大型语言模型的进展展示了在各个应用领域的强大能力,包括心理健康分析。然而,现有的研究着重于预测性能,对公平性这一关键问题的探讨不足,给弱势人群带来了重大风险。我们通过针对八个不同的心理健康数据集,使用十种不同的提示方法,系统地评估了七个社会因素的偏见。结果表明,GPT-4 在性能和公平性方面实现了最佳的平衡,尽管在某些情况下仍落后于领域特定模型如 MentalRoBERTa。此外,我们针对公平性进行调整的提示方法可以有效减轻在心理健康预测中的偏见,凸显了在该领域进行公平分析的巨大潜力。
Jun, 2024
本研究使用基于 Transformer 架构的 RoBERTa 模型,对社交媒体上的用户数据进行分析,以检测和分类抑郁症、焦虑症、双相情感障碍、注意力缺陷多动障碍和创伤后应激障碍等五种主要的心理疾病,从而促进公共健康系统的自动化诊断和分类流程。
Nov, 2020
本文探索使用社交媒体数据预测多种心理健康状况的自动化检测方法,根据诸如句法复杂性、词汇复杂性和多样性、情感等语言特征,基于混合和集成模型的比较后发现多分类模型在自动化心理健康检测研究中更加准确有效。
Dec, 2022
该研究利用自然语言处理(NLP)流程来分析用于咨询的在线心理健康论坛的文本数据,以便快速识别需要紧急心理保健的人群。 通过分析论坛帖子,这些流程可以标记可能需要即时专业关注的用户。 本研究提出了两个模型:一个基于 BERT 的判别模型称为 CASE-BERT,根据论坛文本标记潜在的心理健康障碍;一个生成模型称为 CASE-Gemma,提取初步诊断的关键特征。 CASE-BERT 相较于现有方法表现出更好的性能,对抑郁症和焦虑症两种常见心理健康障碍的 f1 分数分别达到 0.91 和 0.88。CASE-Gemma 可以根据论坛文本生成诊断以达到 BERT 分数为 0.849。对 CASE-Gemma 的有效性进行了人工评估和定性方法评估,并得到了临床心理学家的合作。我们的代码可以在此 https URL 处获得。
Jun, 2024