BriefGPT.xyz
大模型
Ask
alpha
关键词
self-distilled quantization
搜索结果 - 1
自我蒸馏量化:在基于 Transformer 的语言模型中实现高压缩率
通过后训练量化和量化意识训练来研究 Transformer 语言模型的概括化效果。提出了一种称为自身蒸馏量化(SDQ)的方法,该方法最小化积累的量化误差,并优于基线。将 SDQ 应用于多语言模型 XLM-R-Base 和 InfoXLM-B
→
PDF
a year ago
Prev
Next