BriefGPT.xyz
Feb, 2020
重新审视微调的超参数
Rethinking the Hyperparameters for Fine-tuning
HTML
PDF
Hao Li, Pratik Chaudhari, Hao Yang, Michael Lam, Avinash Ravichandran...
TL;DR
该研究从实验评估中重新审视了微调的超参数几个通用实践,发现动态学习参数不是一个很好探索的参数;发现微调的最佳超参数不仅与数据集相关,还与源域和目标域的相似性敏感;发现参考基于的规则化方法可能不适用于“不相似”的数据集。这些结论挑战了微调的常见实践,并鼓励深度学习从业者重新思考微调的超参数。
Abstract
fine-tuning
from pre-trained ImageNet models has become the de-facto standard for various
computer vision
tasks. Current practices for
fine-tunin
→