使用上下文语言模型进行药物误用检测
本文介绍了一种从临床笔记的自由文本中自动提取药物变化信息的方法,并用 Contextual Medication Event Dataset (CMED) 数据集识别药物提及。并提出了三种基于 BERT 的高性能系统来解决注释的药物变化特性。研究表明,所提出的系统可以提高药物变化分类性能。
Aug, 2022
本研究旨在探讨利用预训练的大型语言模型 (ChatGPT) 进行数据增强来识别电子病历中的关键因素,结果表明基于 ChatGPT 的数据增强对药物识别和药物事件分类任务的性能提高有益。
Jun, 2023
探索了 MedTem 项目中利用深度学习和大型语言模型(LLM)进行医疗信息从 EMR 中提取和分类的效果,并对不同字嵌入技术进行了研究。在医疗实体识别任务中,CNN-BiLSTM 模型优于 BiLSTM-CRF 模型,分别达到了 75.67,77.83 和 78.17 的 Macro Average 精确度,召回率和 F1 分数。BERT-CNN 模型在 i2b2-2012 挑战的时间关系提取测试集上表现也较好,分别达到了 64.48,67.17 和 65.03 的 Macro Average P/R/F1 分数。
Oct, 2023
通过提取上下文相关的信息、构建监督学习框架和整合领域专业知识,本研究聚焦于提高医疗信息的准确性,并强调了人本主义策略在适应医疗人工智能中的重要性。
Apr, 2024
本文介绍了一种从非结构化电子医疗记录中提取结构化信息的方法,该方法通过自然语言处理技术和网络注释工具的组合应用,优化了使用少量训练数据训练的定制命名实体识别模型的性能,并展示了该技术与现有方法相比的优势。研究结果表明,在仅使用 50% 的训练数据的情况下,我们的方法训练的模型的 F1 得分可达到 0.734,而当前流行的方法训练的不带语言模型组件的 spaCy 模型的 F1 得分为 0.704。
Oct, 2019
Med-BERT 是一种基于 BERT 框架训练的语境嵌入模型,适用于在数据集较小的情况下预测疾病。通过电子病历研究心力衰竭和胰腺癌的预测,表明 Med-BERT 具有较高的准确性和泛化性能,可以大幅提升深度学习模型的性能和推广医疗人工智能的发展。
May, 2020
该论文介绍了我们在 MEDIQA-CORR 共享任务中的方法,该任务涉及医学专业人员策划的临床笔记中的错误检测和更正。我们的工作旨在评估在包含事实和不可靠信息的海量互联网数据上训练的大型语言模型(LLM)的能力。我们建议综合处理所有子任务,并建议采用独特的基于提示的上下文学习策略。我们将评估其在结合一般推理和医学知识的专门任务中的功效。在预测错误可能导致严重后果的医学系统中,我们建议利用自洽性和集成方法来提高错误更正和错误检测性能。
May, 2024
本文提出了应用 SpanBERT 架构通过 NLP 监控社交媒体、博客和健康论坛上的不良药物事件反应(Adverse Drug Events),并在两个数据集上验证了它在多词汇语境中的优越性。
May, 2021
本文利用 BERT 模型在无标注大语料库中预训练生成上下文表示,进而构建医学无标注文本的自监督学习模型提高判别医学报告的信息提示等级,并取得了显著性能优于 Word2vec 模型的效果。
Dec, 2019