语言模型敲响了知识图谱的丧钟
本文研究如何将医学语言模型(BioELMo)的结构与医学任务中可用的知识图谱(UMLS)进行融合,通过实验验证结论表明融合策略不仅仅是可以改善MedNLI数据集上的BioELMo模型的基线表现,而且在医疗领域的任务中也导致了最前沿的结果。
Aug, 2019
通过知识蒸馏和不断学习等技术,本研究着眼于发展处理临床文本的高效轻量级语言模型,与生物医学文本数据训练的大型模型相比,这些模型效果相当甚至更好,并超越了任何其他训练过的小型模型在自然语言推理、关系提取、命名实体识别和序列分类等临床文本挖掘任务上的表现。
Feb, 2023
通过实验研究表明相对较小的专业临床文本语言模型可在解析和理解电子健康记录方面显著优于大规模的综合性语言模型并且通过进行临床标记的预训练还可以实现更小、 更高效的专业化临床模型。
Feb, 2023
通过结合医学知识图谱和新颖的图模型Dr.Knows,我们提出一种创新的方法来提高大型语言模型在自动诊断生成领域的能力,从而消除预训练的需要,提高自动诊断生成的准确性。
Aug, 2023
本研究全面调查了大型语言模型(尤其是BioBERT)在医疗保健领域的应用。它从彻底检查先前的自然语言处理(NLP)方法在医疗保健领域的应用开始,揭示了这些方法面临的限制和挑战。随后,研究探索了将BioBERT应用于医疗保健应用的路径,突出了它适用于处理生物医学文本挖掘任务的特定要求。该分析提出了一种系统的方法,用于微调BioBERT以满足医疗保健领域的独特需求。该方法包括从各种医疗保健来源获取数据,对诸如识别医疗实体和对其进行分类等任务进行数据注释,以及应用专门为处理生物医学文本中的复杂性而量身定制的预处理技术。此外,本研究还涵盖了与模型评估相关的方面,重点关注医疗保健基准以及在生物医学中自然语言处理、问答、临床文档分类和医疗实体识别等功能的处理。它探索了提高模型可解释性的技术,并验证了其性能与现有的以医疗保健为重点的语言模型相比。本研究全面检查了伦理考虑,特别是患者隐私和数据安全。它强调了将BioBERT纳入医疗保健环境的好处,包括增强临床决策支持和更高效的信息检索。然而,它也承认了此集成的障碍和复杂性,包括与数据隐私、透明度、资源需求以及使模型与各种医疗保健领域保持一致的定制需求相关的问题。
Oct, 2023
本文介绍了一种使用轻量级适配器模块将结构化的生物医学知识注入到预训练语言模型中的方法,并对该方法在三个下游任务中的性能进行了测试和分析。
Dec, 2023
大型语言模型在医疗保健领域的部署引发了热情和忧虑,本综述论文探讨了针对医疗保健应用设计的现有大型语言模型的功能,从传统的预训练语言模型到目前的医疗保健领域的大型语言模型发展轨迹,特别关注临床语言理解任务的潜力以及性能评估、挑战和限制。
Dec, 2023
综述医疗大型自然语言模型(Med-LLM)的进化历史、技术、应用以及对医疗保健的影响,涵盖临床决策支持、报告生成、医学教育等方面,探索其潜力和限制,并讨论公平性、责任感、隐私保护和鲁棒性等挑战,展望未来的发展方向。
Jun, 2024
基于自我监督方法使用大规模数据集训练的基础模型(FMs)被广泛应用于各个领域,包括医疗保健领域,特别在自然语言处理、医学图像分析、临床大型语言模型和病理组学数据等方面。该综述论文全面概述了FMs在医疗保健领域的历史、学习策略、旗舰模型、应用和挑战,并提供了详细的医疗应用分类,同时讨论了FMs所面临的挑战和未来研究方向。
Jun, 2024
本研究解决了大型语言模型(LLMs)在处理结构化电子健康记录和非结构化临床笔记时的有效性问题。通过基准测试不同模型,发现LLMs在结构化数据上的零-shot预测能力较强,但在非结构化文本任务中,微调的BERT模型表现更优。这一发现强调了根据任务要求和数据特征选择合适模型的重要性,以优化NLP技术在医疗领域的应用。
Jul, 2024