Jun, 2017

FreezeOut: 逐渐冻结层以加速训练

TL;DR在深度神经网络中,我们提出仅对隐藏层进行一定时期的训练,并逐层将它们冻结并排除在反向传递中,从而在 CIFAR 上进行实验,实现了 20% 的时间节省,3% 的 DenseNets 准确度损失,20% 的 ResNets 加速而无损失,并没有改善 VGG 网络的结果。