Mar, 2021
自监督预训练提升自监督预训练效果
Self-Supervised Pretraining Improves Self-Supervised Pretraining
TL;DR本文研究自监督预训练的方法,提出了一种名为 HPT 的 Hierarchical PreTraining 方法,通过在现有预训练模型的基础上初始化预训练过程,加快了模型的收敛时间并提高了准确性,同时还增强了自监督预训练对图像增强策略和预训练数据量变化的鲁棒性,从而提供了一种用更少的计算资源获得更好的预训练表示的简单框架。