ICLRJun, 2019
基于熵罚项重新参数化的可扩展模型压缩
Scalable Model Compression by Entropy Penalized Reparameterization
Deniz Oktay, Johannes Ballé, Saurabh Singh, Abhinav Shrivastava
TL;DR本文提出一种在神经网络中进行权重压缩的通用方法,利用潜变量重新调参,在学习过程中施加熵惩罚,并在训练后使用简单的算术编码器对其进行压缩,实现了模型的压缩和分类准确率的最大化。