Sep, 2023

QA-LoRA:大型语言模型的量化感知低秩适应

TL;DR我们提出了一种量化感知的低秩自适应算法(QA-LoRA),通过使用分组运算符,增加量化的自由度,减少自适应的自由度,将大型语言模型(LLMs)权重量化以减少时间和内存使用,并将LLM和辅助权重自然地集成到一个量化模型中,而不损失准确性。我们应用QA-LoRA算法于LLaMA和LLaMA2模型系列,并在不同的微调数据集和下游场景中验证了其有效性。