ICLRJun, 2019

基于熵罚项重新参数化的可扩展模型压缩

TL;DR本文提出一种在神经网络中进行权重压缩的通用方法,利用潜变量重新调参,在学习过程中施加熵惩罚,并在训练后使用简单的算术编码器对其进行压缩,实现了模型的压缩和分类准确率的最大化。