Nov, 2023
在GPU上实现快速2位硬件离线量化低内存映射:内存对齐、稀疏离群值和异步解量化
Enabling Fast 2-bit LLM on GPUs: Memory Alignment, Sparse Outlier, and
Asynchronous Dequantization
TL;DR通过以较小的计算代价解决对大型语言模型(LLMs)进行量化和去量化操作时所面临的问题,我们提出了一种新的技术,并在不同模型和尺寸上进行了广泛实验,成功实现了每个权重的2.85位表示,模型的端到端加速比为1.74倍,同时降低了运行成本和硬件需求。