BriefGPT.xyz
Dec, 2020
大规模生成无数据蒸馏
Large-Scale Generative Data-Free Distillation
HTML
PDF
Liangchen Luo, Mark Sandler, Zi Lin, Andrey Zhmoginov, Andrew Howard
TL;DR
提出了一种新的方法,通过利用训练教师网络内在归一化层的统计信息来训练生成图像模型,从而在没有训练数据的情况下实现知识迁移、模型压缩和半监督学习,该方法在 CIFAR-10 和CIFAR-100 数据集上表现出色,并能够将其扩展到 ImageNet 数据集。
Abstract
knowledge distillation
is one of the most popular and effective techniques for knowledge transfer,
model compression
and
semi-supervised learning
→