Nov, 2024
LoRA-Mini:适应矩阵分解与选择性训练
LoRA-Mini : Adaptation Matrices Decomposition and Selective Training
TL;DR本研究针对大语言模型(LLMs)在特定任务微调中面临的高计算和存储成本问题,提出了一种新的LoRA-Mini方法。该方法通过将低秩矩阵分为四个部分,仅训练其中两个内矩阵,从而实现参数效率提升,训练参数数量最多减少至标准LoRA的20倍,同时保持了与标准LoRA相当的性能,显著改善了LLMs微调的计算和存储效率。