BriefGPT.xyz
Oct, 2022
知识蒸馏对迁移学习的影响
On effects of Knowledge Distillation on Transfer Learning
HTML
PDF
Sushil Thapa
TL;DR
在本研究中,我们提出了一种将知识蒸馏应用于迁移学习的机器学习架构,称为TL + KD,并对它与传统TL的图像分类效果进行了量化和定性比较。结果表明,在微调过程中,使用较大的教师网络提供指导和知识可以改善学生网络以实现更好的验证性能,同时研究了不同场景下的性能表现。
Abstract
knowledge distillation
is a popular
machine learning
technique that aims to transfer knowledge from a large 'teacher' network to a smaller 'student' network and improve the student's performance by training it to
→