BriefGPT.xyz
Ask
alpha
关键词
sparse mixture-of-experts models
搜索结果 - 1
移动版 V-MoEs:通过稀疏的专家混合缩小视觉变形器
通过使用稀疏混合专家模型将 Vision Transformers(ViTs)降低规模以适应资源受限的视觉应用,实现了性能和效率之间更好的平衡。
PDF
10 months ago
Prev
Next