BriefGPT.xyz
Jul, 2023
QuIP:具有保证的大型语言模型的2位量化
QuIP: 2-Bit Quantization of Large Language Models With Guarantees
HTML
PDF
Jerry Chee, Yaohui Cai, Volodymyr Kuleshov, Christopher De Sa
TL;DR
该研究探讨了在大型语言模型中进行训练后参数量化。通过引入具有不相干处理(QuIP)的量化方法,研究人员发现其在减少权重和Hessian矩阵的量化误差方面表现良好,经过优化的舍入过程以及通过随机正交矩阵进行预处理和后处理可进一步提高效果,成功实现了每个权重仅使用两个比特的LLM量化方法。
Abstract
This work studies
post-training parameter quantization
in
large language models
(LLMs). We introduce
quantization with incoherence processing
→