Nov, 2023

用于细调的 Rank 稳定化缩放因子及其 LoRA 方法

TL;DR通过修改 Low-Rank Adapters 方法中的缩放因子,我们提出了一种称为 rank-stabilized LoRA (rsLoRA) 的方法,可以在训练期间用更多的计算资源来换取更好的 fine-tuning 性能,并且在推理计算成本不变的情况下实现了 fine-tuning 计算性能的折中。