Mar, 2023

MAE 预先预训练对亿级预训练的有效性

TL;DR该论文重新审视了在视觉识别任务中使用的标准预训练 - 微调范式,通过使用自监督 MAE 技术实现额外的预先训练阶段来初始化模型。该方法不仅可以扩展模型大小,还可以扩展训练数据集的规模,从而提高了基础模型的训练效率以及各种视觉识别任务的性能并取得了新的最优结果。