Mar, 2024
大型语言模型量化之困: 基于扰动视角的实证研究
What Makes Quantization for Large Language Models Hard? An Empirical
Study from the Lens of Perturbation
TL;DR量化作为一种改善大型语言模型的存储和计算效率的有前途的技术,本研究以新的扰动视角,研究了量化与大型语言模型性能之间的关系,并发现了扰动特性与性能之间的联系,提供了改善模型量化鲁棒性的潜在解决方案,并在实验证明了基于这一视角的简单非均匀量化方法在权重和激活量化方面都能达到较小的性能损失,以此改善大型语言模型的效率而不牺牲性能。