关键词fine-grained quantization
搜索结果 - 2
- 整数量化尺度:加速低位宽量化 LLM 的免费午餐
我们介绍了一种新的后训练量化方案 —— 整数比例,它有效地解决了当前细粒度量化方法中的推理瓶颈问题,同时保持了类似的准确性。整数比例不需要额外的校准或微调,从而避免了额外成本。它可以与大多数细粒度量化方法直接使用,最多可使原始模型的端到端速 - 利用精细量化的三元神经网络
本文提出了一种精细的量化方法 (Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为 8 位和 4 位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最