ICLRFeb, 2024
基于混合簇条件专家的任务定制化遮蔽自编码器
Task-customized Masked AutoEncoder via Mixture of Cluster-conditional Experts
Zhili Liu, Kai Chen, Jianhua Han, Lanqing Hong, Hang Xu...
TL;DR提出了一种新的基于混合的聚类条件专家(MoCE)的 MAE 预训练范式,为不同的下游任务提供定制化的预训练模型,通过使用聚类条件门将每个专家仅与语义相关的图像进行训练,从而克服了 MAE 可扩展性中的负迁移问题。