Jul, 2024

SAFT: 朝向微调的超出分布泛化

TL;DR本文介绍了一种名为Sparse Adaptation for Fine-Tuning(SAFT)的方法,它通过只更新一小部分重要参数来防止微调过程中遗忘预训练模型的通用知识。实验证明,使用SAFT可以显著提升CLIP模型的性能,在多个基准任务中,SAFT方法始终优于基准方法,在OOD环境中,与传统微调方法相比,SAFT平均提升5.15%。