在线咨询服务中自杀风险检测:低资源语言中的研究
对于自杀风险的早期检测非常重要,本研究通过青少年自发言语对自杀风险进行自动检测,并收集了汉语数据集,包括来自千名年龄在十到十八岁之间的青少年 15 小时的自杀言语进行实验。通过使用 Whisper 语音模型和大型文本语言模型 (LLM) 来检测自杀风险,采用了全参数微调和参数效率微调方法来适应预训练模型,评估了多种音频文本融合方法来结合 Whisper 和 LLM 的表示,所提出的系统在包括 119 名受试者的测试集上达到了 0.807 的检测准确度和 0.846 的 F1 分数,表明具有潜在的真实自杀风险检测应用前景。
Jun, 2024
为了解决在紧急医学中对存在自杀风险的患者延迟专科精神评估和护理的问题,我们提出了一种非侵入性的基于语音的自动自杀风险评估方法,结合录音数据和元数据集成,有效提高了自动自杀风险评估的准确性。
Apr, 2024
提出深度学习架构并测试其他 3 种机器学习模型,使用 CLPsych 2021 共享任务中提供的社交媒体帖子数据自动检测将在 30 天和 6 个月内尝试自杀的个体;此外,基于自杀的三阶段理论和先前有关情绪和代词使用的工作,创建和提取三组手工制作的自杀风险检测特征,实验结果表明,一些传统的机器学习方法在子任务 1(预测自杀尝试 30 天前)上的 F1 得分为 0.741,F2 得分为 0.833,超过基线;然而,所提出的深度学习方法在子任务 2(预测 6 个月前的自杀)上的 F1 得分为 0.737,F2 得分为 0.843,超过基线。
Apr, 2021
通过开发深度学习模型以及使用中国社交媒体数据集,本研究提出了一种用于细粒度自杀风险分类的方法,为社交媒体平台上自动识别自杀倾向的个体并及时进行干预提供了有价值的见解。
Apr, 2024
本研究旨在在中国社交媒体平台上评估大型语言模型对自杀风险和认知失真的识别能力,发现大型语言模型相较传统的监督学习方法存在较大的性能差距,尤其在微小类别的理解上,GPT-4 在多种情况下表现优异,而 GPT-3.5 经过微调后在自杀风险分类中显示出显著提升,表明大型语言模型在心理学领域具有前瞻性和变革性的应用潜力。
Sep, 2023
通过提出一种简单的基于深度学习的模型,这篇论文主要关注以聊天机器人为主要数据源,来检测数字内容中的自杀倾向,并提供了一个将该自杀检测与聊天机器人支持系统相结合的框架。
Jan, 2024
当代社交媒体领域中,用户表达负面情绪的数量惊人,其中一部分表现为强烈的自杀意向。因此,需要训练有素的心理咨询师进行有效的心理干预。然而,这些专业人员的培养通常是一项重要但耗时的任务,因此,调动非专业人员或志愿者在这方面的能力成为一个紧迫的问题。这篇论文介绍了一种基于大型语言模型构建的新模型,完全协助非专业人员在在线用户对话中提供心理干预。该框架使得以有意义的方式利用非专业心理咨询师的能力成为可能。通过对十名专业心理咨询师的综合研究,评估了该系统在五个关键维度上的效果。研究结果证实我们的系统能够相对准确地分析患者的问题并提供专业水平的策略建议,从而增强非专业人员的支持。这项研究为大型语言模型在心理学领域的应用提供了有力的验证,并为基于社区的心理健康支持奠定了基础。
Aug, 2023
本文研究了如何使用深度学习算法来检测社交媒体上的自杀意念,并评估了不同数据集和深度学习模型的性能。研究证实,使用深度学习对社交媒体上的自杀意念检测效果较好,但其表现高度依赖于数据集的质量。
Jun, 2022
社交媒体对传统沟通技术进行了革命性改变,通过使人们能够即时、公开和频繁地进行全球连接。人们使用社交媒体分享个人故事和表达他们的意见。负面情绪,例如对死亡、自残和困难的思考在社交媒体上普遍存在,尤其是在年轻一代中。因此,利用社交媒体来检测自杀思维将有助于提供适当的干预,从而最终阻止他人自残和自杀,并阻止自杀观念在社交媒体上的传播。为了自动检测阿拉伯推文中的自杀思维,我们开发了一个新颖的阿拉伯自杀推文数据集,检查了几种机器学习模型,包括朴素贝叶斯,支持向量机,最近邻居,随机森林和 XGBoost,使用单词频率和单词嵌入特征训练,并研究了面向阿拉伯推文的预训练深度学习模型 AraBert,AraELECTRA 和 AraGPT2 的能力来识别阿拉伯推文中的自杀思维。结果表明,SVM 和 RF 模型在机器学习模型中效果最好,使用字符 n-gram 特征进行训练,准确率达到 86%,F1 分数为 79%。深度学习模型的结果显示,AraBert 模型优于其他机器学习和深度学习模型,在阿拉伯推文数据集中实现了 91%的准确率和 88%的 F1 分数,显着提高了阿拉伯推文中自杀观念的检测能力。据我们所知,这是首个从 Twitter 上开发阿拉伯自杀检测数据集并使用深度学习方法检测阿拉伯帖子中自杀意识的研究。
Sep, 2023
该研究探讨使用大型语言模型(LLMs)分析 Reddit 用户的文本评论,旨在实现两个主要目标:首先,找出支持预定义心理评估自杀风险的关键摘录;其次,总结材料以证实预先分配的自杀风险水平。该研究仅限于在本地运行的 “开源” LLMs 的使用,从而增强数据隐私。此外,该研究优先考虑计算要求低的模型,使其可供具有有限计算预算的个人和机构使用。该实施策略仅依靠精心设计的提示和语法来指导 LLM 的文本补全。尽管简单,评估指标显示出卓越结果,使其成为一种重要的关注隐私和成本效益的方法。这项工作是 2024 年计算语言学和临床心理学(CLPsych)共享任务的一部分。
Feb, 2024