关键词sparse trainable subnetworks
搜索结果 - 2
- 弹性彩票假设
本文提出了一种弹性彩票假设(Elastic Lottery Ticket Hypothesis),证明了通过适当地调整一种深度学习神经网络的层级结构,可以从同一类神经网络的另一个较深或较浅网络中拉伸或压缩其获胜彩票,从而实现相当于 IMP - 通过迭代保持突触流动来修剪神经网络
我们提出了一种不需要训练数据也能够在初始阶段识别高度稀疏的可训练子网络的剪枝算法,该算法基于神经突触流动原理并叫做迭代神经突触流剪枝算法(SynFlow),在多种模型、数据集和稀疏约束条件下,表现出和现有最先进的基于梯度的剪枝算法相当或更好