强化学习任务的神经网络压缩
通过联合采用修剪和量化,利用强化学习探索与低能耗相关的设计空间及其精度损失,我们提出了一种自动压缩深度神经网络的硬件感知框架,能够在嵌入式深度神经网络加速器上实现能耗最小化。实验结果表明,相比现有方法,我们的框架平均能耗降低 39%,平均精度损失为 1.7%。
Dec, 2023
使用强化学习方法的算法框架 Galen,可以自动压缩特定硬件目标的神经网络模型,不仅支持修剪、量化等压缩方法的联合搜索,还将目标硬件设备上的推理延迟作为优化目标,通过该方法能够将 CIFAR-10 上的 ResNet18 模型,在嵌入式 ARM 处理器上推理延迟仅为原始延迟的 20%,精度损失不大。
Dec, 2022
本研究探讨了如何在离线强化学习中应用神经网络修剪技术,通过离线修剪技术,可以在保证性能的情况下减少神经网络的大小,提高训练效率。实验结果证明在网络被修剪了 95% 的情况下,算法表现依然很好。
Dec, 2021
本篇文章提出了一种基于图神经网络和强化学习的多阶段图嵌入技术,用于识别 DNN 的拓扑结构和寻找合适的压缩策略,实现模型压缩并获得更高的压缩比和竞争性的性能。
Feb, 2021
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文研究了针对基于循环神经网络的语言建模问题的几种压缩技术。通过使用 Penn Treebank(PTB)数据集,我们比较了 LSTM 网络的剪枝、量化、低秩分解、张量列车分解对模型大小和适用于快速推理的适合性,并发现传统的 LSTM 网络要么拥有高空间复杂度,要么具有相当大的推理时间;这个问题对于移动应用程序尤其关键,因为不适用于与远程服务器进行不断的交互。
Aug, 2017
本研究提出了利用网络压缩的方法来解决深度学习模型在资源有限的系统中的应用难题,并利用迭代剪枝技术使压缩后的网络更加高效和精确。实验证明该方法在与现有方法进行比较时在相同剪枝等级下表现更佳。
Feb, 2019
本文提出了 PuRL,一种基于深度强化学习(RL)的神经网络剪枝算法,通过在每个剪枝步骤上提供奖励,可以在短时间内达到与现有最先进方法相当的稀疏性和准确性。 PuRL 在 ResNet-50 模型上实现了超过 80% 的稀疏性,并在 ImageNet 数据集上保持了 75.37% 的 Top-1 精度,并且可以很容易地适应于各种体系结构。
Jul, 2020
本文主要探讨了一种基于强化学习技术的卷积神经网络模型压缩方法,该方法实现了两阶段压缩:剪枝和量化,并在 CIFAR-10 和 ImageNet 数据集进行了实验,结果表明该方法能够在减小模型大小的同时保证分类精度。
Dec, 2019
本研究提出了一种基于强化学习的数据驱动方法来学习神经网络的压缩模式,可以在维持与输入网络相似的性能的同时实现超过 10 倍的模型压缩,并且通过预训练小型‘teacher’网络的策略可以加速大型‘teacher’网络的训练。
Sep, 2017