Aug, 2024
LoRA$^2$: 多尺度低秩近似用于大型语言模型微调
LoRA$^2$ : Multi-Scale Low-Rank Approximations for Fine-Tuning Large
Language Models
TL;DR本研究解决了在复杂下游任务中,单一尺度更新参数可能不是最佳选择的问题。通过扩展低秩适应方法(LoRA)到多尺度,提出了LoRA$^2$,并结合正交投影理论和改进的重要性评分算法,显著减少了训练参数数量,提升了适应性和性能。研究结果表明,LoRA$^2$在微调中仅需0.72%的参数,仍能实现与基线相当的性能,展现了其高效性和潜在影响。