Oct, 2023

LoftQ: 针对大型语言模型的LoRA微调感知量化

TL;DR我们提出了LoftQ,这是一个新的量化框架,旨在同时量化LLM并为LoRA fine-tuning找到适当的低秩初始化,以改善量化和全精度模型之间的差异,并显著提高下游任务的泛化性能。