Oct, 2018

重新思考网络剪枝的价值

TL;DR本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的“重要”权重通常对小模型没有用,修剪的架构本身比继承的“重要”权重更重要,并且此方法可作为架构搜索范式。本文还比较了“Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其“获胜券”初始化并未带来提高。