BriefGPT.xyz
大模型
Ask
alpha
关键词
mixture of cluster-conditional experts (moce)
搜索结果 - 1
ICLR
基于混合簇条件专家的任务定制化遮蔽自编码器
提出了一种新的基于混合的聚类条件专家(MoCE)的 MAE 预训练范式,为不同的下游任务提供定制化的预训练模型,通过使用聚类条件门将每个专家仅与语义相关的图像进行训练,从而克服了 MAE 可扩展性中的负迁移问题。
PDF
5 months ago
Prev
Next