Jan, 2019

GASL: 深度神经网络稀疏学习的引导注意力

TL;DR本研究提出了一种基于可解释的 attention mechanism 的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速,可适用于各种结构的深度神经网络。实验证明,在 Cifar-100 数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在 MNIST 和 LeNet 架构上也取得了最高的稀疏度和加速比。