Feb, 2024

FlattenQuant: 通过 Per-tensor 量化来突破大型语言模型的推断计算限制

TL;DR使用 FlattenQuant 方法在大型语言模型中实现低比特量化,通过将张量中的大通道展平以显著减少张量的最大值,本方法能够直接使用 4 位来实现 LLMs 中线性层计算的 48.29%,并使用 8 位来处理其余层,从而实现高达 2 倍的速度提升和 2.3 倍的内存减少,而准确度损失微不足道。