复杂度驱动的卷积神经网络压缩技术:面向资源受限的边缘人工智能
本文介绍了一种混合剪枝方法,将粗粒度通道和细粒度的权重剪枝相结合,以在资源受限设备上部署现代网络时减少模型大小、计算和功率需求,而无损或几乎无损精度的同时,提出了快速灵敏度测试的通道剪枝方法,可以快速确定网络层内部和跨层级的灵敏度,实验表明,即使在通道数硬件友好的约束下,相对于现有工作,ResNet50在ImageNet上的结果显著更好。
Nov, 2018
本文提出了基于最小-最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对CNN模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了VGG-16的参数数量和FLOPS。
May, 2019
本文提供基于结构剪枝的边缘设备上的CNN微调方法,旨在提高模型精度和降低计算和存储性能消耗。结果表明,数据感知的剪枝和重新训练可以在各种子集,网络和剪枝级别上提供10.2pp的精度提高。
Jun, 2020
本文针对在边缘设备上部署复杂深度学习模型的挑战,提出了两种基于激活函数的迭代剪枝方法,通过研究结构剪枝与权重剪枝方法的区别,说明结构剪枝会更适合在通用硬件上实现。与权重剪枝相比,这两种方法能更好地压缩模型,并实现更高的准确性。
Jan, 2022
本文提出了一种在资源受限设备上部署和训练最先进模型的新解决方案,其中包括通过一种基于滤波修剪的模型压缩方法创造轻量级可训练模型,以及一种新型知识转移方法,允许在设备上的模型实时增量更新,并以无监督的方式通过云端模型学习新的类别。实验结果表明,该新方法可以在保持良好准确率的同时移除高达99.36%的模型参数,并且允许在设备上的压缩模型在实时内收敛于增量学习任务并识别未见过的数据类别。
Jan, 2022
通过适用于边缘云资源的自适应压缩感知裂化学习方法,我们可以改善和训练深度学习模型,使其在网络上更加高效,并通过变换学习方法扩展训练,以换取更高效的推理能力,而不损失准确性。
Nov, 2023
利用结构化剪枝技术,Reconvene系统可快速生成适用于边缘部署的经剪枝模型,大小减小了16.21倍,速度加快2倍,同时保持与未经剪枝的模型相同的准确性。
Apr, 2024
本研究解决了在图像分类任务中卷积神经网络模型的压缩问题。通过评估结构化剪枝、非结构化剪枝和动态量化等技术,发现结构化剪枝能够使模型大小减少多达75%,而动态量化则可减少参数数量高达95%。最终压缩模型在边缘设备上的部署表现出92.5%的高准确率和20毫秒的低推理时间,验证了压缩技术在实际边缘计算应用中的有效性。
Sep, 2024