Jan, 2025

通过部分线性前馈网络加速大型语言模型

TL;DR本研究针对大型语言模型(LLM)在部署过程中的参数庞大问题,提出了一种新的方法,称为TARDIS,通过将非线性激活函数部分线性化以实现参数减少。实验结果表明,TARDIS在前馈网络中可实现80%的参数减少,并在准确性上显著优于现有的剪枝方法,达到65%的提升,展示了其在加速大型语言模型推理过程中的潜在影响。