ICMLJul, 2022

预训练和微调表示的相似性

TL;DR本文研究转移学习中的表示变化,并发现在少样本学习中,在转移学习的早期层次中进行表示变化是有益的,特别是在跨域适应的情况下。同时,我们发现在转移学习的预训练和微调过程中,预训练结构如果不能使用,则不能被学习。