BriefGPT.xyz
大模型
Ask
alpha
关键词
parametric and behavioral features
搜索结果 - 1
大型语言模型中混合专家的更深入研究
Mixture-of-experts (MoE) 的内在机制及行为特征的初步研究表明神经元如同细粒度专家,在参数和行为特征方面带来了一些有趣的观察,为 MoE 框架和其他模块化架构的未来研究提供了启示。
PDF
8 days ago
Prev
Next