增强孟加拉文抑郁帖子检测的研究: 基于TF-IDF、BERT和FastText嵌入的比较研究
本文介绍了解决模型预测不透明性的方法,提出了一种利用多模态特征和分层注意力网络的模型,可以检测社交媒体上的抑郁症患者并解释模型预测,该模型在检测具有挑战性的公共社交媒体数据集上取得了显著优势。
Jul, 2020
本研究旨在设计和评估一种决策支持系统(DSS),通过模拟在临床实践中常用的患者健康问卷-9(PHQ-9)来捕获用户推文中表达的细粒度抑郁症状,从而可靠地确定抑郁症状的分级。研究结果表明,建模比喻用法可以显著提高模型的鲁棒性和可靠性,以区分抑郁症状。
Nov, 2020
本文提出一种新颖的计算框架来自动检测 Twitter 用户的抑郁症,其中通过抽取概括和提炼相关内容来解决现有模型的局限性,并使用卷积神经网络和门控循环单元模型进行更好的诊断结果。
May, 2021
研究在数据量少的情况下,如何利用数据增强方法,将大规模预训练语料库中的词向量嵌入模型与特定领域语料库中的词向量嵌入模型相结合,以提高在抑郁语言检测任务中的表现,结果显示该数据增强方法可以显著提高模型性能。
Jun, 2021
本研究旨在提出一种利用社交媒体识别抑郁症的方法——SERCNN,它通过将两种不同领域的预训练嵌入层叠加,并重新引入嵌入层上下文到MLP分类器中来提高用户表征的准确性。经过5折交叉验证,SERCNN成功实现了93.7%的准确率,使用最少的10个用户帖子便能取得与BERT模型相当的87%的准确率和98%的参数成本降低,显示出社交媒体检测抑郁症的新前景。
Jul, 2022
本研究提出了一种混合神经网络模型,结合预训练的句子BERT(SBERT)和卷积神经网络(CNN),通过分析Reddit上的帖子来检测抑郁症患者,该模型实现了0.86的准确性和0.86的F1分数,且超过了文献中其他机器学习模型的已有成果(F1分数为0.79)。该模型的结果表明了其在检测抑郁症患者方面的可行性,同时也可应用于其他文本分类任务以及不同的临床应用。
Feb, 2023
使用BERT和MentalBERT模型,将额外的语言信息注入到社交媒体上进行的压力和抑郁症检测中,通过Multimodal Adaptation Gate此方法在三个公开数据集上的表现有所提高。标签平滑化可以提高模型性能和调整模型。在压力和抑郁症文章中观察到了语言差异。
May, 2023
本研究旨在通过深度学习方法,结合RoBERTa和DeBERTa模型,并利用DepSign-LT-EDI任务对社交媒体文本进行分类,进一步加强对精神健康对话的理解,最终取得了优越的性能表现,同时提供了相关代码以促进透明度和进一步发展。
Nov, 2023
我们的研究关注心理健康和社交媒体之间的重要联系,特别是在外向的社交媒体用户中早期检测到抑郁症。通过使用GPT 3.5、GPT 4和我们提出的GPT 3.5微调模型DepGPT,以及先进的深度学习模型(LSTM、Bi-LSTM、GRU、BiGRU)和Transformer模型(BERT、BanglaBERT、SahajBERT、BanglaBERT-Base),我们对Reddit和X数据集进行分类,并由精通心理健康的母语使用者将其翻译成孟加拉文,从而创建了孟加拉社交媒体抑郁数据集(BSMDD)。我们的工作提供了每个模型的完整架构细节,并提供了一种系统评估其在孟加拉抑郁文本分类中的性能的方法,使用零样本学习和少样本学习技术。我们的工作证明了SahajBERT和具有FastText嵌入的Bi-LSTM在各自领域的优越性,并解决了Transformer模型的可解释性问题,强调了LLM的有效性,特别是DepGPT,在各种学习环境中的灵活性和能力。根据实验结果,所提出的DepGPT模型不仅在零样本学习和少样本学习场景中胜过了Alpaca Lora 7B,而且在准确度和F1分数方面也优于其他模型,达到了近乎完美的准确度为0.9796和F1分数为0.9804,拥有高召回率和卓越精确度。尽管竞争激烈,GPT-3.5 Turbo和Alpaca Lora 7B在零样本学习和少样本学习情况下相对效果较差。这项工作强调了LLM在各种语言环境中的有效性和灵活性,为抑郁症检测模型的复杂领域提供了深入的信息。
Jan, 2024
使用推特数据库中的推文,通过词典标注预测了五种抑郁症(双向传输编码器表示)BERT模型用于特征提取和训练机器学习和深度学习方法用于训练该模型。BERT模型表现出最有希望的结果,达到了0.96的总体准确性。
Apr, 2024