BriefGPT.xyz
Ask
alpha
关键词
sparse experts
搜索结果 - 1
稀疏展开和神经元解缠
我们展示了如何通过将 LLM 扩展为稀疏专家的混合体来提高其推理效率,其中每个专家是原始权重的副本,经过一次性修剪以特定输入值簇的方式修剪。我们称这种方法为 ' 稀疏扩展 '。我们展示了对于像 LLama 270B 这样的模型,随着稀疏专家
→
PDF
a month ago
Prev
Next