Aug, 2023

LoRA-FA: 内存高效的大语言模型低秩适应微调

TL;DRLoRA-FA 采用低内存量的权重更新方式,用于大型语言模型的微调,具有接近完整参数微调的准确性,降低了内存使用,技术优化了 LoRA。