BriefGPT.xyz
Ask
alpha
关键词
multilinear mixutre of experts
搜索结果 - 1
多线性专家混合模型:通过分解实现可扩展的专家专业化
通过使用 Multilinear Mixutre of Experts (MMoE) 层来缩放专家的数量,从而实现图像模型的细粒度特化,并通过定性和定量的证据证明了其与线性层具有相当的性能,同时进一步协助修正 CelebA 属性分类中的人口
→
PDF
5 months ago
Prev
Next