Oct, 2023

LoftQ: 针对大型语言模型的 LoRA 微调感知量化

TL;DR我们提出了 LoftQ,这是一个新的量化框架,旨在同时量化 LLM 并为 LoRA fine-tuning 找到适当的低秩初始化,以改善量化和全精度模型之间的差异,并显著提高下游任务的泛化性能。