基于梯度的参数选择以实现高效微调
规模化预训练视觉模型(PVMs)在各种下游视觉任务中表现出很大的适应性。然而,随着最先进的 PVMs 达到数十亿甚至数万亿参数,传统的完全微调范式变得难以持续,因为其需要巨大的计算和存储需求。为了应对这一挑战,研究人员正在探索参数高效的微调(PEFT),旨在通过最小的参数修改超越完全微调的性能。本调查提供了对视觉 PEFT 的综合概述和未来方向,对最新的进展进行了系统回顾。首先,我们提供了 PEFT 的正式定义,并讨论了模型预训练方法。然后,我们将现有方法分为三类:基于添加的、基于部分的和基于统一的。最后,我们介绍了常用的数据集和应用,并提出了未来研究的潜在挑战。所有相关资源可以在该链接中找到。
Feb, 2024
通过研究下游领域的损失函数从随机初始化到预训练初始化的变换,本文揭示了参数梯度稀疏性的特性,提出了基于梯度的稀疏微调算法 Sparse Increment Fine-Tuning (SIFT),并在多个任务上验证了其有效性。
Dec, 2023
Sparse-Tuning 是一种新的调优范式,通过稀疏保存信息标记并合并冗余标记,提高对前景的关注并降低背景区域的计算成本,实现了对预训练的 ViT 模型进行高效的微调和推断,同时具备了现有方法无法满足的 GPU 内存和时间效率要求。
May, 2024
评估了 Parameter Efficient Fine-Tuning 方法在深度学习中的有效性,以减轻计算负担、提高训练速度和降低内存使用,从而推动深度学习的更广泛应用和模型优化的创新。
Apr, 2024
最近的研究应用了参数高效微调技术(PEFTs)来有效缩小预训练和下游任务之间的性能差距。该研究发现,对于与预训练一致的下游微调任务,数据规模不再影响性能,而可微参数规模的影响并不单调,这种观察可指导 PEFTs 的训练策略选择。
Mar, 2024
提出了一种用于医学图像分类的精细化提示调整(FPT)的参数高效调整方法,FPT 相较于其他参数高效调整方法明显降低了内存消耗,并通过引入精细化提示和重要标记选择等技术降低了训练成本和内存需求。
Mar, 2024
本研究提出了一种基于先前训练模型的视觉快速参数调整 (PVP) 框架,可有效降低由于高计算和存储成本带来的计算和存储成本,并在低数据环境下实现优异的结果,特别是在贫瘠的视觉分类领域中。
Apr, 2023
本文系统概述和比较了 40 多篇发表于 2019 年 2 月至 2023 年 2 月之间的参数高效微调方法,这些方法旨在通过仅训练小量参数来解决微调大型语言模型的不可行性和不实用性,提供了一种包括多种方法的分类方法,并重点关注实际效率和微调超大规模语言模型。
Mar, 2023
基于 LVM 的 Sparsity 和 Hybridity 特性,利用 SH-PEFT 方法在医学诊断中通过训练少量的权重,超越了全模型微调,并达到了同其他针对特定医学任务优化的模型可比较的性能,表明大型模型传输在医学诊断中具有巨大潜力。
May, 2024
提出了一种新的参数高效的调优方法(称为 SSF),仅需要缩放和移位预训练模型提取的深度特征即可达到与完全调优相同的性能。该方法仅在训练阶段添加可学习参数,并可以通过重新参数化将这些附加参数合并到原始预训练模型权重中,相比于完全调优表现出更好的性能,特别是对于少量的可调参数。在各种模型家族(CNN、Transformer 和 MLP)和数据集上进行的大量实验表明,SSF 的有效性。
Oct, 2022