基于稀疏性和混合性灵感的视觉参数高效微调在医学诊断中的应用
本文首次全面评估 Parameter-Efficient Fine-Tuning (PEFT) 技术对不同医学图像分析任务的适用性,通过超过 600 个控制实验,研究并比较了 16 种不同的 PEFT 方法,解决了 PEFT 技术在基础模型中的应用问题,展示了在某些情况下的高达 22% 的表现提高,并证明了 PEFT 对于医学图像识别和文本到图像生成具有实际应用价值。
May, 2023
规模化预训练视觉模型(PVMs)在各种下游视觉任务中表现出很大的适应性。然而,随着最先进的 PVMs 达到数十亿甚至数万亿参数,传统的完全微调范式变得难以持续,因为其需要巨大的计算和存储需求。为了应对这一挑战,研究人员正在探索参数高效的微调(PEFT),旨在通过最小的参数修改超越完全微调的性能。本调查提供了对视觉 PEFT 的综合概述和未来方向,对最新的进展进行了系统回顾。首先,我们提供了 PEFT 的正式定义,并讨论了模型预训练方法。然后,我们将现有方法分为三类:基于添加的、基于部分的和基于统一的。最后,我们介绍了常用的数据集和应用,并提出了未来研究的潜在挑战。所有相关资源可以在该链接中找到。
Feb, 2024
通过引入动态视觉提示调整方法,本研究提出了一种适应多样的医学图像输入变化的参数高效微调方法,命名为 DVPT,该方法从大模型中提取有益于下游任务的知识,可通过仅使用少量可训练参数从零开始训练医学图像分析模型。
Jul, 2023
通过对大型语言模型(LLMs)的精确调整和创新的参数高效微调(PEFT)方法的研究实验,本研究探讨了大型模型的微调方法对医疗领域的多模态模型的影响,并发展了最有效的医疗 VLP 模型微调方式,以指导医疗领域研究人员优化 VLM 的训练成本,促进其在医疗保健领域的更广泛应用。
Mar, 2024
通过应用参数高效微调(Parameter-efficient fine-tuning)方法于胸部放射学基础模型上,研究表明该方法在少于 1% 的可调参数下,比完全参数微调(full-parameter fine-tuning)方法在 18 个迁移学习任务中有更好的性能,在 NIH ChestX-ray14 数据集上获得了 80.6% 的 AUROC 分数,希望引起社区对于在医学成像任务中使用参数高效微调方法的更多关注。
Jan, 2024
提出了一种用于医学图像分类的精细化提示调整(FPT)的参数高效调整方法,FPT 相较于其他参数高效调整方法明显降低了内存消耗,并通过引入精细化提示和重要标记选择等技术降低了训练成本和内存需求。
Mar, 2024
Sparse-Tuning 是一种新的调优范式,通过稀疏保存信息标记并合并冗余标记,提高对前景的关注并降低背景区域的计算成本,实现了对预训练的 ViT 模型进行高效的微调和推断,同时具备了现有方法无法满足的 GPU 内存和时间效率要求。
May, 2024
评估了 Parameter Efficient Fine-Tuning 方法在深度学习中的有效性,以减轻计算负担、提高训练速度和降低内存使用,从而推动深度学习的更广泛应用和模型优化的创新。
Apr, 2024
本文提出了一种任务不可知的生成稀疏掩码的方法,仅使用预训练参数的振幅信息,可以显著提高性能和存储效率,并引入了一种新颖的适配器技术,可以直接应用于预训练参数,与全细调速度相同。
May, 2023
在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训练过程中也表现出完美的公平性。在这种情况下,偏差仅在测试时出现,因为泛化表现在不同的子群体之间有差异。这激发了我们从双层优化的角度来看待公平学习:根据验证公平性来优化学习策略。具体而言,我们考虑采用适应预训练模型到下游医学图像任务的参数高效微调(PEFT)技术的高效工作流。在更新更多参数以更好地适应感兴趣的任务与更新更少参数以减少泛化差距之间存在权衡。为了处理这个权衡,我们提出了一个框架 FairTune,以优化与公平性相关的 PEFT 参数的选择。我们经验证明,FairTune 在一系列医学图像数据集上能够提高公平性。
Oct, 2023