Feb, 2024
FlattenQuant: 通过Per-tensor 量化来突破大型语言模型的推断计算限制
FlattenQuant: Breaking Through the Inference Compute-bound for Large
Language Models with Per-tensor Quantization
TL;DR使用FlattenQuant方法在大型语言模型中实现低比特量化,通过将张量中的大通道展平以显著减少张量的最大值,本方法能够直接使用4位来实现LLMs中线性层计算的48.29%,并使用8位来处理其余层,从而实现高达2倍的速度提升和2.3倍的内存减少,而准确度损失微不足道。