大规模神经架构的反向传播压缩:结构化激活剪枝
本研究分析稀疏性对深度神经网络加速器的设计效率和预测精度的影响,证明了相对于细粒度稀疏性,粗粒度稀疏性能够在保持同等精度的前提下获得更好的压缩率和更高效的硬件设计
May, 2017
本文评估了三种在深度神经网络中引入稀疏性的技术,并对两个大规模的学习任务进行了严格评估,结果表明,简单的幅度剪枝方法可以获得相当或更好的性能,而不能从头开始训练稀疏结构,并强调了建立大规模基准测试的必要性。
Feb, 2019
本文介绍了一种基于 unstructured sparsity 的 code generator - SparseRT,通过对于1x1 convolutions 以及 fully connected layers 进行计算,该方法相对于 equivalent dense computation 速度提升了 3.4x 至 5.4x,同时处理 ResNet-50 的 sparse 3x3 convolutions 取得了 5x 的速度提升,能够有效地加速 GPU 上的深度学习操作。
Aug, 2020
本文提出了一种算法-软件共同设计的剪枝方法,采用“分块友好”的稀疏模式来实现现有的密集结构上的延迟加速,旨在解决原先稀疏模型上由于随机分布权重导致计算不规则的问题,在GPU笔记本上成功地实现了1.95倍速度提升的优化效果。
Aug, 2020
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文研究了一种N:M级别的深度神经网络稀疏网络,在专门设计的GPU上同时具有非结构化细粒度稀疏性和结构化粗粒度稀疏性的优点,解决了传统稀疏网络的效率问题,同时提出了一种Sparse-refined Straight-through Estimator方法,解决了传统优化方法下的负面影响。
Feb, 2021
本文研究N:M稀疏性训练的不同方法,并提出了两种新的基于衰减的修剪方法,即“修剪掩码衰减”和“稀疏结构衰减”。研究表明,这些提出的方法在保持与非结构化稀疏性可比的模型精度同时,增加的总训练计算量(FLOPs)相对较小。
Sep, 2022
本文提出利用稀疏子网络以优化内存利用和通信的方法来加速深度学习中的数据和层间并行算法,并将其融入 AxoNN,实验证明在 512 NVIDIA V100 GPU上,相比于 AxoNN,DeepSpeed-3D和 Sputnik,优化后的模型内存消耗减少了74%,总通信时间减少了40%,从而提供了34%的总体加速。
Feb, 2023
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达93%的稀疏度与95%FLOPs的减少,同时在分类和分割问题上超过了先进水平,并且避免了在GPU上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
通过在计算通用矩阵乘法(GEMM)时考虑激活的最终位置,我们设计了一种稀疏训练过程,以诱导可利用的半结构化激活稀疏性,并在图像分类和目标检测任务中对其进行了广泛评估,结果显示在 ImageNet 数据集上,我们的方法在 ResNet18 模型上实现了 1.25 倍的加速,并仅有 1.1% 的最小精度降低;另外,与先进的结构化剪枝方法相结合,得到的模型在延迟和准确性之间取得了很好的平衡,优于仅采用结构化剪枝技术的模型。
Sep, 2023