基于提示的社交媒体文本精简中文专业翻译
该研究评估了基于大型语言模型 ChatGPT 在三种文本分类任务中的表现,并发现零 - shot 分类准确度表明语言模型对心理健康分类任务具有潜在的应用价值。
Mar, 2023
本文详细评估了 ChatGPT 在 11 个数据集上的心理健康分析和情感推理能力,分析了不同提示策略对其分析能力和可解释性的影响,并发现情感提示可以有效提高其性能,但需要正确的情感注入方式。
Apr, 2023
本文提出了一种新颖的方法,将大型语言模型(LLM)与可解释的人工智能(XAI)和类似 ChatGPT 的对话代理相结合,以解决对社交媒体上表达的抑郁症状进行及时检测的挑战。通过将 BERT 的 Twitter 特定变体 BERTweet 集成到 BERT-XDD 模型中,实现了解释能力,并通过掩码注意力提供分类和解释。利用 ChatGPT 将技术解释转化为可读性强的评论,进一步提高了可解释性。我们的方法为可解释性抑郁症检测提供了一种有效且模块化的方法,有助于发展具有社会责任感的数字平台,在合格的保健专业人员指导下促进对心理健康挑战的早期干预和支持。
Jan, 2024
本研究使用 ChatGPT 生成合成数据,并使用语义搜索和余弦相似度来确定 Reddit 社交媒体句子对 BDI-II 症状的相关性,发现对于句子嵌入,使用专门用于语义搜索的模型胜过对精神健康数据进行预训练的模型。
Jul, 2023
该研究比较了两个大型语言模型 GPT-4 和 Chat-GPT 在回应 18 个心理提示方面的表现,以评估它们在心理健康护理环境中的潜在适用性。结果显示 GPT-4 在生成临床相关和富有同理心的回应方面更有效,提供更好的支持和指导。这项研究为大型语言模型在心理健康护理领域的适用性提供了贡献,强调了在该领域持续研究和开发的重要性。需要进一步研究了解造成两个模型性能差异的具体因素,并探索其在不同人群和心理健康状况中的普适性。
May, 2024
开发了第一个用于社交媒体上的可解释性心理健康分析的开源语言模型系列 MentalLLaMA,并通过 IMHI 数据集在正确性和解释质量方面接近最先进的判别方法。
Sep, 2023
该研究提出了一种创新的方法,在临床决策中应用大型语言模型(LLMs),重点关注 OpenAI 的 ChatGPT。我们的方法介绍了在数据稀缺情况下,采用上下文提示(策略性地设计了包括任务描述、特征描述和领域知识整合的提示)进行高质量二元分类任务的应用。我们的研究探索了 LLMs 基于零样本和少样本提示学习的动态性,通过比较 OpenAI 的 ChatGPT 在不同数据条件下与传统监督式机器学习模型的性能,旨在提供对不同数据可用性下提示工程策略有效性的见解。这篇论文架起了人工智能和医疗保健之间的桥梁,提出了一种新的 LLMs 在临床决策辅助系统中的应用方法,并强调了提示设计、领域知识整合和灵活学习方法在增强自动化决策方面的变革潜力。
Aug, 2023
本文基于社交媒体帖子利用马里兰大学 Reddit 自杀数据集,提出了一种对交互式 ChatGPT 模型进行自杀性评估的量化评估框架,并通过零样本和少样本实验对 ChatGPT 在此任务上的性能进行了技术评估,并将其结果与两个经过微调的基于变压器的模型的结果进行比较,研究不同温度参数对 ChatGPT 响应生成的影响,并根据 ChatGPT 的不确定性率讨论最佳温度。我们的结果表明,虽然 ChatGPT 在这项任务中获得了相当的准确性,但对人工注释数据集进行微调的基于变压器的模型表现出更优异的性能。此外,我们的分析揭示了调整 ChatGPT 的超参数如何提高其协助心理健康专业人士完成此关键任务的能力。
Jun, 2023
通过利用大型语言模型 (ChatGPT) 和知识驱动提示构建的分析框架,我们首次对社交媒体上的非法药物交易活动进行了系统研究,实验结果表明该框架在药物贩运检测准确性方面优于其他基准语言模型,该研究可为社交网络提供有效的药物贩运识别和标注,甚至在非法药物交易者使用隐晦语言和委婉语避免检测的情况下仍然有效。
Jul, 2023
通过深度学习模型检测社交媒体用户的心理状况,可以更好地理解疾病并提供早期发现的手段。基于分层注意力网络的二元分类任务预测用户是否患有九种不同疾病中的一种,在四种疾病中表现出比先前设定的基准更高的性能,并通过检查模型的单词级注意权重分析分类相关的短语的限制。
Mar, 2020