BriefGPT.xyz
Nov, 2024
扩展稀疏调优以降低内存使用
Expanding Sparse Tuning for Low Memory Usage
HTML
PDF
Shufan Shen, Junshu Sun, Xiangyang Ji, Qingming Huang, Shuhui Wang
TL;DR
本文解决了在稀疏调优中内存使用量增加的问题,通过提出一种名为SNELL的方法,实现了低内存使用的稀疏调优。该方法通过将可调矩阵分解为两个可学习的低秩矩阵,并引入竞争式稀疏化机制来减少内存占用,最终在多个下游任务中证明了其在保持高性能的同时降低内存使用的有效性。
Abstract
Parameter-efficient Fine-tuning
(PEFT) is an effective method for adapting pre-trained vision models to downstream tasks by tuning a small subset of parameters. Among PEFT methods,
Sparse Tuning
achieves superior
→