Mar, 2024
使用低秩适配器从视觉基础模型进行混合精度Supernet训练
Mixed-precision Supernet Training from Vision Foundation Models using
Low Rank Adapter
TL;DR对于大型和高性能的视觉基础模型(Vision Foundation Models,VFMs)进行任意位操作(BitOPs)的压缩,以在各种硬件上部署。我们提出了将VFM微调为混合精度量化超网络的方法,该超网络进行神经架构搜索(NAS),可以训练超网络,然后可以提取在任意硬件预算内的子网络。针对现有方法在优化混合精度搜索空间和训练过程中产生大量内存开销方面的困难,我们首先通过比较不同操作符(如分辨率、特征大小、宽度、深度和位宽)的性能和BitOPs减少来研究微调VFM的有效搜索空间设计。其次,我们提出了一种使用低秩适配器(LoRA)和渐进训练策略的内存高效超网络训练方法。该方法在最近提出的VFM(Segment Anything Model)上进行了评估,并在分割任务上微调。搜索出的模型在不降低性能的情况下减少了约95%的BitOPs。