Dec, 2020
模型压缩中过参数化的可证益处: 从双峰下降到神经网络修剪
Provable Benefits of Overparameterization in Model Compression: From
Double Descent to Pruning Neural Networks
TL;DR本文分析了过参数化模型剪枝中的双重下降现象,提出了在某些情况下,训练大型模型再进行剪枝比仅使用已知信息更好的理论证明,同时也发现了重新训练的好处以及在线性和随机特征模型中已经存在这些现象,这进一步促进了高维分析工具的发展。