一种大型语言模型优于其他计算方法对医生笔记的高通量表型
用大型语言模型和混合 NLP 模型(将词向量与机器学习分类器相结合)高准确度地进行医生笔记的高通量特征化,从而让大型语言模型成为医生笔记的高通量深度特征化的首选方法。
Mar, 2024
文章综述了自然语言处理在电子健康记录领域的应用,重点介绍了计算表型学方法,包括基于关键词搜索和基于规则的系统等算法,以及监督式机器学习模型、深度学习和非监督式学习等最近受到关注的算法。同时文章指出在病历中特征关系的处理、模型可解释性和推广性等方面仍有待解决的问题。
Jun, 2018
通过使用零射击的基于大型语言模型的方法,结合检索增强生成和 MapReduce 技术,我们在肺动脉高压领域展示了一种有效识别疾病的方法,该方法在诊断中明显优于医生逻辑规则(F1 分数为 0.62 比 0.75),从而有望增强罕见疾病群体的识别和推动临床研究以及关注空缺的发现。
Dec, 2023
临床深度表型化和本体概念建模在罕见疾病患者的诊断和护理协调计划中起着重要作用。本研究使用大型语言模型评估了最新的生成预训练变压器模型在临床深度表型化的性能,结果表明这些模型在临床环境中的使用存在问题。
Sep, 2023
通过基于 Transformer 结构的大型语言模型(LLMs),我们可以自动检测临床表型术语,包括未记录在 HPO 中的术语。在本研究中,我们开发了两种模型:PhenoBCBERT,一种基于 BERT 的模型,利用 Bio+Clinical BERT 作为其预训练模型,和 PhenoGPT,一种基于 GPT 的模型,可以从各种 GPT 模型(包括开源版本和专有版本)初始化。我们发现我们的方法可以提取更多的表型概念,包括 HPO 未描述的新概念。我们还对生物医学文献进行了案例研究,说明如何识别和提取新的表型信息。我们在多个方面比较了基于 BERT 和基于 GPT 的模型进行表型标记,包括模型架构、内存使用、速度、准确性和隐私保护。此外,我们还讨论了将否定步骤和 HPO 规范化层添加到 Transformer 模型中,以改进 HPO 术语标记。总之,PhenoBCBERT 和 PhenoGPT 可以实现从临床记录和生物医学文献中自动发现表型术语,从而促进自动的下游任务,以获得关于人类疾病的新的生物学见解。
Aug, 2023
通过对临床记录进行语义学分析,可以帮助精确地提取出患者的病情,进而为医疗决策和医疗档案二次利用提供支持;本研究探索了几种基于 BERT 模型的病情提取机制,避免了传统的手工规则的繁琐操作,实验结果表明这种机制在病情识别上具有较高的性能,可适用于医学领域的实际应用。
Oct, 2019
本文研究了深度学习技术在自然语言处理中是否可以有效用于患者表型特征提取和预测,并与传统 NLP 方法进行比较。结果表明,卷积神经网络是一种性能优良且易解释的深度学习方法,可以有效提高患者表型预测的性能,降低注释复杂度,并自动学习与每个患者表型相关的短语。
Mar, 2017
通过医生评注和认定的方法,我们研究了三种通用大型语言模型(LLMs)在理解和处理真实世界临床笔记中的性能,并发现 GPT-4 整体表现优于其他 LLMs。此外,我们开发了一个全面的定性性能评估框架,旨在验证 LLMs 在处理复杂医学数据方面的能力,并为将来在专门领域的 LLM 评估建立基准。
Jan, 2024
通过使用人工智能的生成式大型语言模型,可以使其作为自主的循证医学的从业者,通过工具的使用与真实世界的医疗系统进行交互,并以符合指南的方式执行患者管理任务,这有可能通过进一步的改进来推动医疗的转型。
Jan, 2024
在使用真实的大型电子病历数据库进行两项分析后,发现 ChatGPT 和 GPT-4 可以通过思路链和几次提示,准确地完成疾病分类任务,并为卫生保健工作者提供诊断辅助,但是这些模型目前存在错误陈述、忽视重要医学发现、推荐不必要的调查和过度治疗等问题,并伴随有隐私问题,因此仍不适用于现实世界的临床使用。不过,与传统机器学习工作流程的配置相比,这些模型所需的数据和时间较少,突出了它们在卫生保健应用中的可扩展性潜力。
Jul, 2023