BriefGPT.xyz
Ask
alpha
关键词
mixture of experts networks
搜索结果 - 1
稀疏专家混合模型的视觉扩展
本文介绍了一种名为 Vision MoE 的稀疏版本的 Vision Transformer,在图像识别方面表现出色且需要的计算量较少。此外,本文还提出了一种路由算法的扩展来优化每个输入的处理,最终通过训练一个达到 153 亿参数的模型,V
→
PDF
3 years ago
Prev
Next