Jun, 2024

PowerInfer-2:智能手机上快速的大型语言模型推断

TL;DRPowerInfer-2是一个为智能手机上的大型语言模型(LLM)进行高速推断而设计的框架,通过将传统的矩阵计算分解为细粒度的神经元集群计算,利用智能手机中的异构计算、内存和I/O资源,实现了多样的计算策略,减少了I/O操作带来的开销。在两部智能手机上的实现和评估表明,相比于现有的框架,PowerInfer-2实现了高达29.2倍的速度提升,并且是第一个在智能手机上具有11.68 tokens每秒生成速率的TurboSparse-Mixtral-47B模型服务的系统。对于完全适合内存的模型,PowerInfer-2可以实现大约40%的内存使用减少,并且维持与llama.cpp和MLC-LLM相当的推断速度。