探索预训练语言模型中的疾病知识
本研究介绍了一种新的基准测试套件,称为 DR.BENCH,旨在开发和评估具有临床诊断推理能力的 cNLP 模型,这是第一个被设计为自然语言生成框架以评估预训练语言模型的临床任务套件。
Sep, 2022
介绍了 MedNLI 数据集的自然语言推理任务 (NLI),并提出了两种解决深度神经网络模型在特定领域泛化能力差的方法:利用开放域数据集进行迁移学习和结合外部数据和词汇来源的领域知识。实验结果表明,两种方法均可提高模型性能。
Aug, 2018
本文介绍了利用有关疾病的特定知识和 BERT 模型相结合来提高健康相关任务(例如消费者健康问答和医疗语言推理)的准确性,实验结果表明,这种方法在多数情况下都能够显著改善任务效果。
Oct, 2020
首次公开提供的法语生物医学语言理解基准 DrBenchmark,评估 8 种最新的预训练掩码语言模型 (MLMs) 的通用和生物医学特定数据上的性能,以及英语特定的 MLMs 来评估它们的跨语言能力。
Feb, 2024
本研究的重点是使用 DR.BENCH 这一包含 6 个任务的综合生成 AI 框架对领域内和领域外语言模型进行比较分析,发现多任务、经过临床训练的语言模型在 DR.BENCH 中的问题总结任务中表现超过了其一般领域的对应物,取得了 28.55 的 ROUGE-L 得分,显示出了为优化临床诊断推理任务而进行领域特定的训练的价值。
Jun, 2023
通过创建生物医学知识三元组的基准测试 BioLAMA,研究了预训练语言模型是否可用作具有生物医学特定领域知识的知识库。发现在近期提出的探测方法下,生物医学语言模型可以在检索生物医学知识方面取得 18.51% 的精确度,但多数预测与无主题的提示模板高度相关,因此限制了它们作为特定领域知识库的能力。
Sep, 2021
利用新型半监督过程从现有生物医学数据集生成一个针对复杂决策中自然语言推理问题的数据集 BioNLI,进行负样本生成的实验,准确度中等,在不同的负样本分类上表现不同。
Oct, 2022
本文介绍了在医疗领域中使用模型的预训练词嵌入的成功,讨论了 BERT 语言模型在核心领域中的效果,并提出了三种不同的对抗策略并评估模型性能,结果发现模型效果被显著降低,通过使用对抗性样本可以显著提高模型性能和鲁棒性的实验,并希望该实验能够激励更多对具备更强鲁棒性的模型的投入和评估。
Apr, 2020
借助基于提示的学习,通过 “推理感知” 的诊断框架实现了对临床推理进行理性化,并能够在时间和劳动资源上具有高效性,从而实现了对疾病诊断的临床推理。
Dec, 2023
提出 KeBioLM 这一生物医学语言 pretrained language model,该模型明确利用了来自 UMLS UMLS knowledge bases 知识库的知识,取得了名词实体识别和关系提取的不错效果。
Apr, 2021