BriefGPT.xyz
大模型
Ask
alpha
关键词
floating-point quantization
搜索结果 - 2
EMNLP
LLM-FP4: 4 位浮点数量化变压器
我们提出了 LLM-FP4,在训练后将大型语言模型(LLM)的权重和激活量化为 4 位浮点数值。
PDF
8 months ago
ZeroQuant-FP: 使用浮点格式的 LLM 后训练 W4A8 量化的飞跃
使用浮点量化在大型语言模型中表现出色,尤其是 FP8 和 FP4 的浮点数,在模型参数超过十亿时性能优势更加明显。对于权重量化来说,FP4 与 INT4 相比表现出可比、甚至更好的性能,简化了在支持 FP 的硬件上部署。对于通过权重和激活之
→
PDF
a year ago
Prev
Next