BriefGPT.xyz
Ask
alpha
关键词
moe compression
搜索结果 - 1
通过统一框架解构混合专家的压缩
大规模语言模型的扩展已经在不同领域取得了革命性的性能,但模型规模的持续增长为实际应用带来了重大挑战。本文通过动态选择和激活仅一部分专家的混合专家(MoE)方法,显著减少计算成本同时保持高性能。我们提出了一个创新的统一框架来压缩 MoE,该框
→
PDF
a month ago
Prev
Next