BriefGPT.xyz
大模型
Ask
alpha
关键词
rank-stabilized lora
搜索结果 - 1
用于细调的 Rank 稳定化缩放因子及其 LoRA 方法
通过修改 Low-Rank Adapters 方法中的缩放因子,我们提出了一种称为 rank-stabilized LoRA (rsLoRA) 的方法,可以在训练期间用更多的计算资源来换取更好的 fine-tuning 性能,并且在推理计算
→
PDF
7 months ago
Prev
Next