Mar, 2024

QAQ: LLM KV 缓存的质量自适应量化

TL;DR提出了 QAQ,一种针对 KV 缓存的质量自适应量化方案,通过集成专用的异常值处理和改进的注意力感知方法,QAQ 在对模型性能几乎没有影响的情况下,实现了 KV 缓存大小最大 10 倍的压缩比,显著减少了部署 LLM 的实际困境,并为更长上下文应用开辟了新的可能性。