ICMLFeb, 2018

卷积网络迁移学习的显式归纳偏置

TL;DR本文研究在归纳迁移学习中,fine-tuning 方式相较于从头训练卷积神经网络具有更好的表现。为了提高 fine-tuned 模型在目标任务上的泛化性能,本文探究了多种正则化方法,最终推荐采用 $L^2$ 惩罚并将预训练模型作为基准的方法作为迁移学习任务的 baseline。