IJCAIJun, 2018

动态层级革命:在移动设备上压缩循环神经网络的 DirNet

TL;DR使用一种基于优化快速字典学习算法的新型模型压缩方法 DirNet,来保证在资源受限的移动设备上实现高压缩率时的最小准确性损失。通过在神经网络的不同层级上动态挖掘字典原子并调整压缩率,并且自适应地改变稀疏编码的稀疏性,该方法在语言模型和 ASR 模型上进行实验,结果表明它比之前的方法显著优越。在现有移动设备上进行评估,我们能够将原始模型的大小缩小八倍,并实现实时模型推理,同时几乎没有准确性损失。