May, 2024
结合多种后训练技术实现最高效的量化LLMs
Combining multiple post-training techniques to achieve most efficient
quantized LLMs
TL;DR通过 quantization 技术,结合 SmoothQuant 和 GPTQ 两种 post-training 技术,将模型量化为 MX 格式,能够显著减小优化型模型大小至多 4 倍,提高 LLaMA 模型大小至多 3 倍,同时仅仅增加 1-3% 的困惑度。