Nov, 2019

篡改彩票:使所有彩票获奖

TL;DR本论文提出了一种方法来训练稀疏神经网络,使其在训练过程中保持固定参数数量和固定的计算成本,同时不损失相对于现有密集到稀疏训练方法的准确性,该方法通过使用参数大小和不频繁的梯度计算来更新稀疏网络的拓扑结构。在多种网络和数据集上,我们展示了稀疏训练结果在 ResNet-50、MobileNets on Imagenet-2012、以及 RNNs on WikiText-103 方面的最新技术进展。最终,我们提供了一些见解,为什么允许在优化过程中更改稀疏神经网络拓扑结构可以克服当拓扑结构保持静态时遇到的局部极小值。