BriefGPT.xyz
大模型
Ask
alpha
关键词
compressing large language models
搜索结果 - 1
EMNLP
压缩的成本:研究压缩对语言模型参数化知识的影响
压缩大型语言模型(LLM)包含数十亿参数,可以提供更快的推理速度,更小的内存占用,并支持本地部署。我们通过对多个模型系列(ENCODER、ENCODER-DECODER 和 DECODER)使用 LAMA 和 LM-HARNESS 基准进行
→
PDF
7 months ago
Prev
Next