Jul, 2024

LRQ:通过学习低秩权重缩放矩阵优化大型语言模型的后训练量化

TL;DR通过使用低秩权重缩放矩阵代替常规的全权重缩放矩阵,我们提出了一种低秩量化方法(LRQ),可以在大规模语言模型中取得更高的压缩性能和推断效率,提高量化语言模型的泛化能力。