Feb, 2024

PRoLoRA: Partial Rotation 强化更高效的参数化 LoRA

TL;DR通过引入部分旋转增强的低秩适应机制(PR0LoRA),本文在大型语言模型(Large Language Models)领域提出了一种参数效率更高、适用范围更广的新方法,实验证明PRoLoRA在特定参数预算和性能目标场景下具有明显更高的参数效率,并且扩展性更强。希望PRoLoRA能作为一种资源友好的替代方法来使用,优于LoRA方法。