Nov, 2018

可微神经架构搜索进行卷积网络的混合精度量化

TL;DR该研究探索了一种新的神经网络压缩方法,通过不同比特宽度的量化不同层并使用可微分神经架构搜索框架进行优化,成功地实现了比现有方法更高的压缩率,模型尺寸缩小21.1倍或计算量降低103.9倍