Jan, 2024

利用大型语言模型对变压器模型进行优化以检测孟加拉抑郁社交媒体文本:一项综合研究

TL;DR我们的研究关注心理健康和社交媒体之间的重要联系,特别是在外向的社交媒体用户中早期检测到抑郁症。通过使用 GPT 3.5、GPT 4 和我们提出的 GPT 3.5 微调模型 DepGPT,以及先进的深度学习模型(LSTM、Bi-LSTM、GRU、BiGRU)和 Transformer 模型(BERT、BanglaBERT、SahajBERT、BanglaBERT-Base),我们对 Reddit 和 X 数据集进行分类,并由精通心理健康的母语使用者将其翻译成孟加拉文,从而创建了孟加拉社交媒体抑郁数据集(BSMDD)。我们的工作提供了每个模型的完整架构细节,并提供了一种系统评估其在孟加拉抑郁文本分类中的性能的方法,使用零样本学习和少样本学习技术。我们的工作证明了 SahajBERT 和具有 FastText 嵌入的 Bi-LSTM 在各自领域的优越性,并解决了 Transformer 模型的可解释性问题,强调了 LLM 的有效性,特别是 DepGPT,在各种学习环境中的灵活性和能力。根据实验结果,所提出的 DepGPT 模型不仅在零样本学习和少样本学习场景中胜过了 Alpaca Lora 7B,而且在准确度和 F1 分数方面也优于其他模型,达到了近乎完美的准确度为 0.9796 和 F1 分数为 0.9804,拥有高召回率和卓越精确度。尽管竞争激烈,GPT-3.5 Turbo 和 Alpaca Lora 7B 在零样本学习和少样本学习情况下相对效果较差。这项工作强调了 LLM 在各种语言环境中的有效性和灵活性,为抑郁症检测模型的复杂领域提供了深入的信息。