朝向通用医疗 AI:持续学习医学基础模型
本研究通过评估四个不同医学图像场景中各种连续学习方法的性能表明,单一模型可以顺序地学习来自不同专业的新任务,并达到与传统方法相当的性能,从而证明了在医学领域跨机构共享或回收模型的可行性,进一步推动了通用医学影像人工智能的发展。
Nov, 2023
医学人工智能算法的泛化水平可以通过建立一个分层三级评估系统来反映,该系统更好地反映了真实医疗情境的多样性,其中用于重新校准模型的目标领域数据可能可用也可能不可用,并且如果可用的话,可能或可能不会系统地提供参考标签。
Nov, 2023
最近,基础语言模型(LMs)在自然语言处理(NLP)和计算机视觉(CV)领域取得了重要的成就。然而,由于灾难性遗忘的原因,它们仍然无法模拟类似人类的连续学习。为了解决这个问题,已经开发了各种基于连续学习(CL)的方法来改进 LMs,并使其能够适应新任务而不会遗忘以前的知识。然而,目前对现有方法的系统分类和性能比较仍然缺乏,这是我们调查的空白。我们对基础语言模型中应用的基于 CL 方法的现有文献进行了全面回顾、总结和分类,如预训练语言模型(PLMs)、大型语言模型(LLMs)和视觉语言模型(VLMs)。我们将这些研究分为离线 CL 和在线 CL,其中包括传统方法、基于参数效率的方法、基于指令调优的方法和连续预训练方法。离线 CL 包括领域增量学习、任务增量学习和类增量学习,而在线 CL 又分为困难任务边界和模糊任务边界设置。此外,我们概述了 CL 研究中使用的典型数据集和度量标准,并详细分析了 LMs-based 连续学习的挑战和未来工作。
May, 2024
通过在医学图像分析中引入疾病相关的上下文提示,利用预训练的视觉 - 语言模型(VLMs)的联合能力,提出了一种新的疾病原型学习框架,有效地提升了 VLMs 对新疾病概念的理解和性能,相较于现有方法有明显的提升。
May, 2024
本文通过研究预训练视觉语言模型在医学图像领域的知识传递能力,发现合理设计的医学提示语是调用预训练模型知识的关键。通过使用在领域间共享的表达属性提示,可实现知识跨越领域,改进泛化能力,对新对象的识别有所优化。此外,通过自动化生成医学提示的三种方法,可以将专家级的医学知识和图像特定信息注入提示语中,进行细粒度的信息定位,试验表明,与默认提示相比,巧妙设计的医学提示显著提高了零样本性能,且微调模型超过了受监督的模型。
Sep, 2022
本研究旨在将大型预训练基础模型的表现能力扩展到特定的医疗概念中,通过研究 Stable Diffusion 模型的子组件,进而生成医学影像,并通过定量和定性的方法对模型效果进行评估。
Oct, 2022
使用连续训练和指导微调的方法,快速适应中国医学领域的 Llama 2 基础模型,实验证实了该方法的有效性,产生了与 GPT-3.5-turbo 相媲美的模型,并且使用更少的计算资源。这个领域特定模型对于各种中国医学应用是有用的,并为领域特定训练提供了一个模板,用于那些预训练模型缺乏所需专业知识的领域,如法律、科学和工程。
Nov, 2023
这篇论文研究了大型语言模型(LLMs)中不断学习(CL)领域的发展,重点是开发高效和可持续经验的训练策略。通过不断适应域预训练,我们的研究评估了 LLMs 在不同数据环境中的适应性和能力,并引入了一个新的基准来衡量这种适应能力,揭示了关于知识转移和模型大小的若干关键见解。
Feb, 2024
本研究提出了一种新的方法,使用一系列未标记的领域语料库来连续培训语言模型,从而改善它们的最终任务绩效。该方法的关键创新点是一种软掩蔽机制,它直接控制语言模型的更新,同时提供了一个新的代理来保留原始 LM 中的通用知识。实证评估证明了所提方法的有效性。
Feb, 2023
在医学影像分析中,深度学习算法的快速发展使得医学影像分析取得了显著的进展,但是在推理数据集与模型训练时所见数据略有不同的情况下,模型的性能会受到很大影响。因此,需要采用连续学习技术来处理新类别、新任务和非稳态环境中的数据变化。本系统综述论文对连续学习技术在医学影像分析中的应用进行了全面的概述,包括灾难性遗忘、数据漂移、稳定性和可塑性要求等方面的研究,同时对连续学习方案、技术、评价方案和指标等关键组成部分进行了深入讨论。
Dec, 2023