Oct, 2023

ReLU 反击:在大型语言模型中利用激活稀疏性

TL;DR这篇论文研究了大语言模型在资源受限设备上推断计算中的挑战与改进方法,通过重新引入 ReLU 激活函数并探索其稀疏模式,作者提出了一种实用的策略,可以显著减少推断计算量,达到三倍的性能提升。