医学基础模型综述
大型语言模型在医疗领域的利用引发了劲头和担忧,本文概述了目前开发的大型语言模型在医疗保健方面的能力,并阐明它们的发展过程,旨在提供从传统预训练语言模型(PLMs)到大型语言模型(LLMs)的发展路线图的概览。总的来说,我们认为正在进行一次重大的范式转变,从PLMs过渡到LLMs,这包括从辨别式人工智能方法向生成式人工智能方法的转变,以及从以模型为中心的方法论向以数据为中心的方法论的转变。
Oct, 2023
为了促进医疗语言模型的发展,本文介绍了一个多层次、多任务和多领域的医疗基准数据集MedEval,包含来自多个医疗系统的数据,跨越了8种检查模式的35个人体区域。我们对10个通用和领域特定的语言模型进行了系统评估,并发现语言模型在不同任务上的效果不同。同时,我们强调了对少样本使用大型语言模型进行指导调整的重要性。研究结果为医疗领域的语言模型基准测试提供了参考,并深入探讨了采用大型语言模型在医疗领域的优势和局限性,为其实际应用和未来发展提供了重要启示。
Oct, 2023
通过提供医学成像领域基础模型的综合概述,本调查旨在帮助研究人员了解基础模型的基本概念、培训策略、计算要求以及在医学图像分析方面的机会、应用和未来发展方向。
Oct, 2023
大型语言模型在医疗保健领域的部署引发了热情和忧虑,本综述论文探讨了针对医疗保健应用设计的现有大型语言模型的功能,从传统的预训练语言模型到目前的医疗保健领域的大型语言模型发展轨迹,特别关注临床语言理解任务的潜力以及性能评估、挑战和限制。
Dec, 2023
该调查研究了基本模型(FM)在人工智能中的转化影响,重点关注其与联邦学习(FL)相结合在推进生物医学研究中的应用。基于巨大数据集通过无监督预训练、自监督学习、指导微调和人类反馈强化学习等方法训练的基本模型,如ChatGPT、LLaMa和CLIP,代表了机器学习的重要进展。这些模型具有生成连贯文本和逼真图像的能力,在需要处理包括临床报告、诊断图像和多模态患者互动等多样数据形式的生物医学应用中发挥关键作用。将联邦学习与这些复杂模型结合起来,为利用其分析能力同时保护敏感医疗数据的隐私提供了有前途的策略。这种方法不仅提升了基本模型在医学诊断和个性化治疗方面的能力,还解决了医疗保健中数据隐私和安全的重要问题。该调查回顾了基本模型在联邦环境中的当前应用,强调了挑战,并确定了未来的研究方向,包括扩展基本模型、管理数据多样性以及提高联邦学习框架内的通信效率。旨在鼓励进一步研究基本模型和联邦学习的结合潜力,为突破性的医疗创新奠定基础。
May, 2024
综述医疗大型自然语言模型(Med-LLM)的进化历史、技术、应用以及对医疗保健的影响,涵盖临床决策支持、报告生成、医学教育等方面,探索其潜力和限制,并讨论公平性、责任感、隐私保护和鲁棒性等挑战,展望未来的发展方向。
Jun, 2024
通过综合调查了解医学领域中的语言模型,并选择了一个子集进行评估,发现在资源受限的环境中,某些模型具有出色的性能,强调了在医学上进一步探索模型应用的潜力。
Jun, 2024
本研究针对现有生物医学领域大型语言模型(LLMs)文献缺乏综合分析的现状,进行了深入探讨。文章分析了484篇相关文献,探讨了LLMs在诊断辅助、药物发现和个性化医疗等任务中的能力,并指出在特定应用中提高模型表现的调适策略。此外,研究还揭示了数据隐私、模型可解释性等挑战,并提出未来的研究方向。
Aug, 2024