Nov, 2018
可微神经架构搜索进行卷积网络的混合精度量化
Mixed Precision Quantization of ConvNets via Differentiable Neural Architecture Search
Bichen Wu, Yanghan Wang, Peizhao Zhang, Yuandong Tian, Peter Vajda...
TL;DR该研究探索了一种新的神经网络压缩方法,通过不同比特宽度的量化不同层并使用可微分神经架构搜索框架进行优化,成功地实现了比现有方法更高的压缩率,模型尺寸缩小 21.1 倍或计算量降低 103.9 倍