May, 2022
自我监督轻量级视觉Transformer的深入探讨
A Closer Look at Self-supervised Lightweight Vision Transformers
TL;DR本文主要通过使用基于掩码图像建模的MAE pre-training方法,即MAE-lite,来为轻量级ViTs 的pre-training提供配方,并与其他 fully-supervised 和 self-supervised pre-training counterparts 进行对比,分析和表明了这种pre-training的影响,揭示了pre-trained 模型的适当学习的底层在数据充足的下游任务中更为重要的作用,并开发了一个distillation策略来提高pre-trained representations,从而实现更好的性能。