Jul, 2016

使用迭代硬阈值方法训练瘦身的深层神经网络

TL;DR本研究提出了一种迭代硬阈值(IHT)方法用于训练 “瘦” 深度神经网络(SDNN),该方法可以通过两个阶段的交替训练操作,即丢弃小激活连接并微调其他重要权重,然后重新激活被丢弃的连接以提高模型疏密性。该方法的优越性通过使用 CIFAR-10,CIFAR-100,MNIST 和 ImageNet 四种基准数据集的实验结果得到了验证。