BriefGPT.xyz
Ask
alpha
关键词
outlier weighed layerwise sparsity
搜索结果 - 1
异常值加权逐层稀疏化(OWL):向高稀疏化去除 LLMs 的遗漏秘密配方
大语言模型(LLMs)的巨大模型规模在实际部署中引发挑战,因此针对此问题,我们对传统网络修剪技术应用于 LLMs,大量参数可以被剪枝,而不会损害性能。基于从预训练 LLMs 模型中获得的经验,我们的实验结果表明,非均匀层间稀疏性相比于均匀层
→
PDF
9 months ago
Prev
Next