May, 2019

CGaP:连续增长和修剪以提高深度学习效率

TL;DR本文提出了 Continuous Growth and Pruning (CGaP) 方法,旨在在训练模型期间最小化冗余并从一开始便避免引入冗余,通过持续增长和修剪过程获取紧凑和准确的模型。根据实验结果,在代表性数据集和 DNN 结构上,CGaP 的效果优于以前的仅修剪预定义结构的方法,达到了参数减少 78.9%和 85.8%,FLOPs(浮点计算数)减少 53.2%和 74.2%。