朝向通用医疗AI:持续学习医学基础模型
该研究介绍了一种适用于医学领域的自我监督视觉语言预训练模型Medical X-VL,展示该模型在医学领域的视觉语言任务中的超越性能,并证明了在新疾病诊断和监测人类错误等方面,Oversight AI具有广泛的应用潜力。
Aug, 2022
本文通过研究预训练视觉语言模型在医学图像领域的知识传递能力,发现合理设计的医学提示语是调用预训练模型知识的关键。通过使用在领域间共享的表达属性提示,可实现知识跨越领域,改进泛化能力,对新对象的识别有所优化。此外,通过自动化生成医学提示的三种方法,可以将专家级的医学知识和图像特定信息注入提示语中,进行细粒度的信息定位,试验表明,与默认提示相比,巧妙设计的医学提示显著提高了零样本性能,且微调模型超过了受监督的模型。
Sep, 2022
本研究通过评估四个不同医学图像场景中各种连续学习方法的性能表明,单一模型可以顺序地学习来自不同专业的新任务,并达到与传统方法相当的性能,从而证明了在医学领域跨机构共享或回收模型的可行性,进一步推动了通用医学影像人工智能的发展。
Nov, 2023
本研究通过将预训练的通用大型语言模型精细调整为医学领域专家,并结合多种优化方法,包括注入通用医学知识、医学领域指导微调和特定医学任务适应性调整,成功提升了在医学领域的推理和应答能力。
Dec, 2023
我们提出了SA-MDKIF,它是一个可扩展和适应性强的框架,通过指令调整将医学知识注入通用语言模型,从而使其能够适应各种下游任务,实验证明SA-MDKIF相比原始的大型语言模型在医学任务中的性能提升了10-20%,对于未见过的医学任务,性能提升高达30%。
Feb, 2024
通过对大型语言模型(LLMs)的精确调整和创新的参数高效微调(PEFT)方法的研究实验,本研究探讨了大型模型的微调方法对医疗领域的多模态模型的影响,并发展了最有效的医疗VLP模型微调方式,以指导医疗领域研究人员优化VLM的训练成本,促进其在医疗保健领域的更广泛应用。
Mar, 2024
持续预训练是适应大型语言模型(LLM)到新领域的主要方法之一,研究探讨了在这个过程中LLM的行为和性能,提出了三种有效策略来增强LLM在固定计算资源下的性能,经实验证实这些策略在医学任务性能和通用任务性能方面均取得了令人满意的成果。
Jun, 2024
本研究解决了医疗领域多任务学习中统一多模态大语言模型(MLLM)构建的挑战,特别是多模态多任务优化中的“拉锯”问题。通过引入连接器混合专家(CMoE)模块,Uni-Med在六种医疗任务中表现出色,实现了高效的优化与提升,验证了CMoE在各种配置下都能带来8%的性能提升。
Sep, 2024
本研究针对现有医学领域中大语言模型(LLMs)和视觉语言模型(VLMs)的适应性问题进行了深入探讨,指出这些模型在医学问答任务中的表现并未如预期般优于基础模型。该论文通过对七个公共"医学"LLM和两个VLM的比较分析,发现医疗模型在零样本和少样本提示条件下的性能普遍低于基础模型,进而提出未来研究中需要加强的有效方法。
Nov, 2024
本研究针对现有医学基础模型在医疗任务中的有效性问题进行了分析,提出这些模型在零样本和少样本情况下并未显著优于通用基础模型。研究表明,尽管经过特定任务的微调后医学LLM性能有所提升,但这些改进无法应用于临床笔记任务,强调了通用模型可能已经展现出强大的医学知识和推理能力。
Nov, 2024