BriefGPT.xyz
Ask
alpha
关键词
mixture-of-experts layer
搜索结果 - 1
探索深度学习中的专家混合模型
本文研究了 Mixture-of-Experts(MoE)层如何在深度学习中提高神经网络的性能以及为什么混合模型不会崩溃。通过研究困难的分类问题,我们证明了 MoE 模型的有效性,理论上表明路由器可以学习聚类中心特征,帮助将复杂的问题分解为
→
PDF
2 years ago
Prev
Next