BriefGPT.xyz
大模型
Ask
alpha
关键词
4-bit weight quantization
搜索结果 - 1
SmoothQuant+: 精确高效的 LLM 后训练 4 位权重量化
提出了 SmoothQuant + 方法,它是一种准确而高效的 4 位权重量化方法,能够无损地减小大语言模型的内存开销,并且在精确度上没有损失。通过 SmoothQuant+,Code Llama-34B 模型能够在一张 A100 40GB
→
PDF
7 months ago
Prev
Next