May, 2023
去枝遇见低秩参数高效微调
Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning
TL;DR本文提出了一个名为LoRAPrune的统一框架,旨在实现高性能的大规模预训练模型的高效微调和部署,其中使用了PEFT感知的剪枝标准和基于Low-Rank Adaption(LoRA)的梯度值和梯度的重要性估计,通过迭代剪枝过程以最大化PEFT的优点来删除冗余参数,实现了高精度和高压缩比的目标。实验结果表明,我们的方法在各个任务中都达到了最先进的结果,并且在VTAB-1k基准测试中,使用可训练参数的仅0.76%,产生的平均Top-1准确率比幅度和移动剪枝方法高5.7%和4.3%,在保留微调优点的同时实现与PEFT方法可比较的性能。