我们使用监督的抽取和生成式语言模型集成的方法来提供 2024 年 CLPsych 共享任务中对自杀风险的支持证据。我们的方法包括三个步骤:首先,构建一个基于 BERT 的模型来估计句子级的自杀风险和负面情绪;接下来,通过强调自杀风险和负面情绪的高概率,精确识别出高自杀风险的句子;最后,我们使用 MentaLLaMa 框架的生成式摘要和从高自杀风险句子和专门的自杀风险词典中的抽取式摘要进行集成。我们的团队 SophiaADS 在突出摘要方面获得第一名,并在摘要生成方面在基于回收率和一致性度量标准的排名中排名第 10。
Mar, 2024
该研究探讨使用大型语言模型(LLMs)分析 Reddit 用户的文本评论,旨在实现两个主要目标:首先,找出支持预定义心理评估自杀风险的关键摘录;其次,总结材料以证实预先分配的自杀风险水平。该研究仅限于在本地运行的 “开源” LLMs 的使用,从而增强数据隐私。此外,该研究优先考虑计算要求低的模型,使其可供具有有限计算预算的个人和机构使用。该实施策略仅依靠精心设计的提示和语法来指导 LLM 的文本补全。尽管简单,评估指标显示出卓越结果,使其成为一种重要的关注隐私和成本效益的方法。这项工作是 2024 年计算语言学和临床心理学(CLPsych)共享任务的一部分。
Feb, 2024
在本研究中,我们采用八个大型语言模型,在六个数据集和四个不同的摘要任务(放射学报告、患者问题、进展记录和医生 - 患者对话)上应用领域适应方法,系统评估了它们的效果,而且展示出最佳适应的大型语言模型的摘要相较于人工摘要在完整性和正确性方面更可取。此外,我们还将传统的自然语言处理指标与医生评分进行了相关性分析,以提高对这些指标与医生喜好的理解。最终,我们的研究证明了大型语言模型在多个临床文本摘要任务中超越人工专家,这意味着将大型语言模型整合到临床工作流程中可以减轻文档负担,使临床医生能够更多关注个性化患者护理和其他医学中不可替代的人工环节。
Sep, 2023
使用大型语言模型(Flan-T5 XXL)从非结构化电子健康记录(EHR)数据中检索和总结与特定查询相关的论据,较传统信息检索方法更受放射科医生欢迎,但面临 LLMs 产生虚构证据的挑战。然而,模型的信心可能指示 LLMs 是否存在虚构,为解决此问题提供了潜在方法。
使用大型语言模型(LLMs)结合人类专家的方法,快速生成医疗文本注释的地面真实标签,从而减少人工注释负担并保持高准确性,为医疗健康领域的定制自然语言处理(NLP)解决方案提供了潜力。
Dec, 2023
通过将抽取的概念作为特征或标签,加以利用或学习,以期提高文档级别的临床编码任务的性能,但结果未取得较大的性能提升,探讨可能的原因和未来的研究方向。
Jun, 2019
通过解决长期等待次名单和提供相关团队推荐,基于大型语言模型的端到端入食方法有助于缩短患者延迟时间和改善三级分类决策,适用于精神医疗保健。
社交 NLP 研究社区近期在心理健康分析的计算进展中见证了构建负责任的 AI 模型,以应对语言使用和自我认知之间的复杂相互作用。我们通过注释 LoST 数据集捕捉到 Reddit 用户帖子中表明低自尊的微妙文本线索,并发现 NLP 模型在确定低自尊时更关注三种类型的文本线索:触发词、LoST 指标和后果词。我们的研究结果表明,在 Reddit 帖子中确定低自尊时,需要将 PLMs 的重点从触发词和后果词转移到更全面的解释上,强调 LoST 指标。
Jan, 2024
本研究探讨了如何应用语言模型来改进医学文本的简化,提出了一种基于似然分数的新度量标准,并对编码器解码器模型的新方法进行了评估,同时建立了一些语料库。
Apr, 2021
提出了一种双提示方法,通过使用领域特定的信息和基于语言模型的一致性评估器,实现知识感知证据提取和证据总结,并综合实验证明了该方法的有效性和帮助临床医生评估心理状态进展的潜力。