BriefGPT.xyz
Ask
alpha
关键词
ultra-low precisions
搜索结果 - 1
BitDistiller: 通过自我蒸馏释放次 4 位 LLMs 的潜力
BitDistiller 是一种通过 Quantization-Aware Training (QAT) 和 Knowledge Distillation (KD) 相结合的方法,可以提高大型语言模型在超低精度(低于 4 位)下的性能,包括
→
PDF
5 months ago
Prev
Next