Adapter-X: 一个新颖的面向视觉的普适参数高效微调框架
该研究从实验评估中重新审视了微调的超参数几个通用实践,发现动态学习参数不是一个很好探索的参数;发现微调的最佳超参数不仅与数据集相关,还与源域和目标域的相似性敏感;发现参考基于的规则化方法可能不适用于“不相似”的数据集。这些结论挑战了微调的常见实践,并鼓励深度学习从业者重新思考微调的超参数。
Feb, 2020
本文研究了视觉变换器的参数高效模型适应策略,提出了一种基于局部内在维度的参数高效模型适应框架,并通过实验比较了不同方法在各项指标下的表现。结果表明,该框架在少样本下的20个图像分类数据集和全样本下的7个图像分类数据集上,在准确性和参数效率之间的平衡上表现最佳。
Mar, 2022
该文介绍了一种基于感知度的视觉参数调整方案(SPT),该方案可以自适应地将可训练参数分配给特定任务的重要位置,该方法可以有效降低模型存储和优化的难度,并可以取得较好的识别性能。
Mar, 2023
本文提出了一种名为E3VA的参数、内存和时间高效的视觉适配器调节方法,通过梯度反向传播高速公路实现低秩适配器,可以在保持模型性能相当的情况下,节省高达62.2%的训练存储器和26.2%的训练时间。
Jun, 2023
透過將輕量級適配器插入凍結的預訓練模型並使用低精度量化方法以減少存儲空間,本研究發現低精度的適配器達到與高精度適配器相當的性能,且1位精度就足夠。
Jul, 2023
通过Point-PEFT框架,我们能够在只使用可训练参数的5%的情况下,实现优于完全微调的性能,充分展示了我们方法的高效性和有效性。
Oct, 2023
通过引入多个适合视觉信号处理的视觉友好滤波器和缩放归一化层,提出了一种名为Mona的多认知视觉适配器调谐方法,该方法超越了全面微调在实例分割和语义分割任务上的性能,并适用于多个代表性的视觉任务。
Nov, 2023
局部微调可以同时提高效率和准确性,选取适合的层对局部微调至关重要。通过引入新的微调角度度量,可以灵活适应各种场景用于更实用的局部微调,同时提高模型性能和泛化能力,减少微调参数。实验证明了局部微调的巨大潜力。
Dec, 2023
规模化预训练视觉模型(PVMs)在各种下游视觉任务中表现出很大的适应性。然而,随着最先进的PVMs达到数十亿甚至数万亿参数,传统的完全微调范式变得难以持续,因为其需要巨大的计算和存储需求。为了应对这一挑战,研究人员正在探索参数高效的微调(PEFT),旨在通过最小的参数修改超越完全微调的性能。本调查提供了对视觉PEFT的综合概述和未来方向,对最新的进展进行了系统回顾。首先,我们提供了PEFT的正式定义,并讨论了模型预训练方法。然后,我们将现有方法分为三类:基于添加的、基于部分的和基于统一的。最后,我们介绍了常用的数据集和应用,并提出了未来研究的潜在挑战。所有相关资源可以在该链接中找到。
Feb, 2024
本研究针对适配器的冗余性问题,提出了Prune and Share(Pear)框架,通过修剪不必要的适配器并共享重要的适配器,提升视觉预训练模型的微调效率。此外,采用知识检查点策略保留修剪适配器的信息,进一步提高性能。实验结果表明该方法在视觉适应基准测试中优于其他竞争方法。
Sep, 2024