少为佳:参数高效微调提升医学视觉基础模型
本文首次全面评估 Parameter-Efficient Fine-Tuning (PEFT) 技术对不同医学图像分析任务的适用性,通过超过 600 个控制实验,研究并比较了 16 种不同的 PEFT 方法,解决了 PEFT 技术在基础模型中的应用问题,展示了在某些情况下的高达 22% 的表现提高,并证明了 PEFT 对于医学图像识别和文本到图像生成具有实际应用价值。
May, 2023
通过有选择地微调部分参数以降低计算需求,提出了一种在临床领域中适应预训练语言模型的方法,并通过与 Downstream LLaMA-LoRA 相结合,在多个临床预测任务上取得了最先进的 AUROC 得分提升,并在大规模多标签分类任务中观察到 6-9% 的 AUROC 得分改善。
Jul, 2023
提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过 LoRA、BitFit 和 IA3 等技术,在几乎不需要可训练参数和 GPU 内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常需要进行架构修改或完全微调。为了解决这个问题,我们提出了 Context-PEFT,它根据令牌的领域学习不同的适配器参数组,这种方法使得可以实现类似 LoRA 的权重注入,而不需要额外的架构修改。我们的方法在 COCO 字幕任务上进行评估,在类似的数据限制下,优于完全微调,并同时提供了更高的参数效率和计算经济性的解决方案。
Dec, 2023
评估了 Parameter Efficient Fine-Tuning 方法在深度学习中的有效性,以减轻计算负担、提高训练速度和降低内存使用,从而推动深度学习的更广泛应用和模型优化的创新。
Apr, 2024
对不同规模的模型以及临床决策任务的适用性进行研究,揭示大型语言模型的效果与 Parameter Efficient Fine-tuning 方法的关系,发现 LoRA 方法在各项任务和模型规模下都能保持较高的性能,专用模型在速度和训练成本上具有优越性,与大型基础语言模型相比效果更好,同时探讨了领域特定预训练与 PEFT 方法和模型规模之间的相互影响,以及提供最佳效率与性能平衡的因素。
Feb, 2024
Light-PEFT framework enables efficient fine-tuning by pruning redundant parameters in the foundation model and PEFT modules, resulting in improved training and inference speed, reduced memory usage, and comparable performance to standard PEFT.
Jun, 2024
规模化预训练视觉模型(PVMs)在各种下游视觉任务中表现出很大的适应性。然而,随着最先进的 PVMs 达到数十亿甚至数万亿参数,传统的完全微调范式变得难以持续,因为其需要巨大的计算和存储需求。为了应对这一挑战,研究人员正在探索参数高效的微调(PEFT),旨在通过最小的参数修改超越完全微调的性能。本调查提供了对视觉 PEFT 的综合概述和未来方向,对最新的进展进行了系统回顾。首先,我们提供了 PEFT 的正式定义,并讨论了模型预训练方法。然后,我们将现有方法分为三类:基于添加的、基于部分的和基于统一的。最后,我们介绍了常用的数据集和应用,并提出了未来研究的潜在挑战。所有相关资源可以在该链接中找到。
Feb, 2024
通过使用 ExPLoRA 技术,在对卫星图像进行迁移学习时,只使用很少的参数数量,在无监督的预训练阶段只解冻 1-2 个预训练的 ViT 块和所有归一化层,然后通过 LoRA 微调所有其他层,最后只通过 LoRA 在新域上对模型进行微调,获得了基于先前完全训练和微调的 ViTs 的最先进结果。
Jun, 2024
基于 LVM 的 Sparsity 和 Hybridity 特性,利用 SH-PEFT 方法在医学诊断中通过训练少量的权重,超越了全模型微调,并达到了同其他针对特定医学任务优化的模型可比较的性能,表明大型模型传输在医学诊断中具有巨大潜力。
May, 2024
通过 LoRAT 方法,将 Vision Transformers (ViT) 应用于实验室级资源内的视觉跟踪,通过解决独特的挑战和潜在域差异,包括将位置嵌入分解为共享的空间嵌入和独立的类型嵌入,并设计了仅基于多层感知器 (MLP) 的自由锚定头进行适应,以提高性能并降低计算开销。
Mar, 2024