Aug, 2024

ABQ-LLM:大型语言模型的任意位量化推理加速

TL;DR本研究解决了大型语言模型推理中由于内存和计算需求高而导致的应用限制,通过引入一种新型的任意位量化算法和推理框架ABQ-LLM。该框架在不同量化设置下表现出色,并能够高效实现任意精度的量化推理,显著提高了 GPU 上低比特宽度执行的性能。最重要的发现是,ABQ-LLM在LLaMA-7B模型上的 W2*A8 量化配置下,获得了比以往方法更高的加速和内存压缩效果。