本文探讨了对话中抑郁情绪的特征以及用 Multi-Task Learning 方法来提高抑郁情绪检测的准确性,最终证明了抑郁和情绪、对话组织之间的相关性。
Jul, 2022
该研究介绍了两种不同的方法,使用模型无关的元学习和利用大型语言模型(LLMs)来预测低资源非洲语言(如斯瓦希里语)中心理健康状况。通过应用于压力、抑郁、抑郁症严重程度和自杀倾向等四个心理健康任务的三个翻译为低资源语言的数据集进行实验,结果显示我们的元学习模型在宏观 F1 得分上相较于 XLM-R 和 mBERT 的基准微调方法有 18%和 0.8%的显著提高,同时,研究还通过分析不同的跨语言提示方法,利用 LLMs 的上下文学习能力评估了它们在斯瓦希里心理健康预测任务中的准确性,并发现斯瓦希里提示优于跨语言提示但不及英语提示。研究结果表明通过精心设计的提示模板、示例和说明可以通过跨语言迁移实现上下文学习。
Apr, 2024
本文探索使用社交媒体数据预测多种心理健康状况的自动化检测方法,根据诸如句法复杂性、词汇复杂性和多样性、情感等语言特征,基于混合和集成模型的比较后发现多分类模型在自动化心理健康检测研究中更加准确有效。
Dec, 2022
通过深度学习模型检测社交媒体用户的心理状况,可以更好地理解疾病并提供早期发现的手段。基于分层注意力网络的二元分类任务预测用户是否患有九种不同疾病中的一种,在四种疾病中表现出比先前设定的基准更高的性能,并通过检查模型的单词级注意权重分析分类相关的短语的限制。
Mar, 2020
采用多任务学习框架,通过使用情感检测作为辅助任务,利用相关任务中可用的标注数据来提高社交媒体文本中个人健康体验检测的性能,从而显著提高了个人健康提及检测任务的范围与强大状态下的基线相比。
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
该研究使用两个数据集,提出了两个多任务学习框架,使用抑郁症和压力作为主要和辅助任务,旨在利用社交媒体挖掘抑郁和压力信息,实现其早期识别。实验显示,该方法相比于传统单任务学习和迁移学习有多重优势。
May, 2023
本文介绍了我们参加 IberLEF 2023 中的 MentalRiskES 任务,使用传统机器学习和深度学习技术预测了个体社交媒体活动导致抑郁的可能性,其中使用 BRET-based 模型微调和使用线性回归器作为输入的句子嵌入的两种建模方法,结果表明后者获得了更好的结果。
Jun, 2023
本研究旨在在中国社交媒体平台上评估大型语言模型对自杀风险和认知失真的识别能力,发现大型语言模型相较传统的监督学习方法存在较大的性能差距,尤其在微小类别的理解上,GPT-4 在多种情况下表现优异,而 GPT-3.5 经过微调后在自杀风险分类中显示出显著提升,表明大型语言模型在心理学领域具有前瞻性和变革性的应用潜力。
Sep, 2023
开发了第一个用于社交媒体上的可解释性心理健康分析的开源语言模型系列 MentalLLaMA,并通过 IMHI 数据集在正确性和解释质量方面接近最先进的判别方法。