极简交互边缘调校:视觉适应的新范式
本文调查了最近的大量工作,提供现有工作和模型的系统性和全面性概述,将最近的视觉微调技术分为五组:提示微调,适配器微调,参数微调和重新映射微调,并提供前瞻性预训练和视觉微调中的各种交互的激动人心的研究方向。
May, 2023
Sparse-Tuning 是一种新的调优范式,通过稀疏保存信息标记并合并冗余标记,提高对前景的关注并降低背景区域的计算成本,实现了对预训练的 ViT 模型进行高效的微调和推断,同时具备了现有方法无法满足的 GPU 内存和时间效率要求。
May, 2024
通过参数高效调优,利用指令调整和多模态对齐的方法,本研究提出了一种新的通用视觉 - 语言模型训练方法 PETAL,其通过独特的模式近似技术,显著减少了训练成本和对重计算资源的依赖,并在语义深度方面进行了改进。实验证明,PETAL 在多个方面超越了现有最先进的方法,同时在少样本设置中也展现了出色的优势。
Dec, 2023
本文提出了一种简单的神经网络自适应方法 ——side-tuning,通过训练轻量级 “侧边” 网络,并通过求和与预训练网络融合,解决了微调、固定特征和其他常用方法的基本问题,性能表现优越,能够在各种场景下实现增量学习和迁移学习。
Dec, 2019
参数效率微调(PEFT)是应对大型语言模型的适应和服务挑战的一种有前景的方法,本研究中描述了一种非侵入式的 PEFT 技术 AdaLink,并在各种任务中与最先进的侵入式 PEFT(LoRA)和全模型微调(FT)相比表现出有竞争力的性能。
Oct, 2023
本文提出了一种新的、称为弹性调整的 fine-tuning 方式,可以用于处理不同于预训练源的、但与其语义相近的实际数据。通过实验证明,相较于传统做法,在许多领域转移情况中调整中间或早期单元的效果更好。
Aug, 2020
通过引入多个适合视觉信号处理的视觉友好滤波器和缩放归一化层,提出了一种名为 Mona 的多认知视觉适配器调谐方法,该方法超越了全面微调在实例分割和语义分割任务上的性能,并适用于多个代表性的视觉任务。
Nov, 2023
面向物联网应用的数据漂移个性化机器学习模型在能源成本方面依然存在挑战,为此提出了适用于资源受限设备的低能耗个性化框架 Target Block Fine-Tuning (TBFT)。通过对输入级、特征级和输出级的细分,分别对模型的前端、中间和后端进行微调,以实现在减少能源成本的同时获得最佳性能,结果显示 TBFT 相较于单独微调每个块并平均性能改进的 Block Avg 方法,平均提高了 15.30% 的模型精度并节约了 41.57% 的能源消耗。
Mar, 2024
现有的参数高效微调(PEFT)方法通过提高参数效率,在视觉变换器(ViTs)适应中取得了显著的成功,然而,在适应过程中改善推理效率的探索仍未充分开展,这限制了预训练 ViT 模型的广泛应用,特别是在计算上耗费较多的情况下。在本文中,我们提出了一种名为动态调整 (DyT) 的新方法,来改善 ViT 适应的参数和推理效率。具体而言,除了使用轻量级适配器模块外,我们还提出了一个标记分发器,用于区别信息丰富的标记和不重要的标记,从而使后者动态跳过原始块,减少推理过程中的冗余计算。此外,我们探索了多种设计变体以找到 DyT 的最佳实践。最后,受混合专家(MoE)机制的启发,我们引入了一个增强的适配器以进一步提高适应性能。我们在包括图像 / 视频识别和语义分割在内的各种任务中验证了 DyT。例如,在 VTAB-1K 基准测试中,DyT 在触发 71%-85%的 FLOPs 的情况下实现了与现有 PEFT 方法相当或甚至更优越的性能。
Mar, 2024