使用 PCA 的低投入结构化 CNN 设计方法
本文介绍了一种基于剪枝策略的 CNN 结构压缩方法 CAR。CAR 通过去除对分类精度影响最小的滤波器实现了近似原始分类精度的同时,保留了原始网络中有代表性的滤波器。压缩后的网络更容易理解,因为具有更少的滤波器数目。此外,作者还提出了一种变种算法来量化每个图像类别对每个 CNN 滤波器的重要性,最和次重要的分类标签被证明是每个滤波器的有意义的解释。
May, 2017
本文提出了一种新型的卷积神经网络压缩算法,通过利用网络层级复杂性,设计了三种剪枝模式:参数感知型、浮点运算量感知型和内存感知型,以在低功耗设备上实现高效率的模型压缩和加速,并在智能农业,智能医疗和智能工厂等应用中表现出了极高的性能表现。
Aug, 2022
本文提出了一种卷积神经网络的结构冗余剪枝方法,通过在最具有结构冗余性的层剪枝,可以相对于之前研究集中在去除不重要滤波器的方法,更有效地压缩网络架构,并在不同的基准模型和数据集上获得了显著优越的表现
Apr, 2021
对深度神经网络的特征表示进行理解仍然是可解释人工智能领域中一个开放问题。本研究使用主成分分析(PCA)来研究在 CIFAR-10 上训练的 ResNet-18 的逐层学习表示对 k 最近邻分类器(k-NN)、最近类中心分类器(NCC)和支持向量机的性能的影响。我们发现,在某些层次上,仅需 20% 的中间特征空间方差即可实现高精度分类,并且在所有层次上,前 100 个主成分完全决定了 k-NN 和 NCC 分类器的性能。我们将研究结果与神经崩溃现象联系起来,并提供了中间神经崩溃相关现象的部分证据。我们的初步工作利用线性仿射模型展示了三个不同但可解释的特征表示的代理模型,其中性能最好的是仿射线性模型。我们还展示了利用几个代理模型来估计 DNN 中可能开始出现神经崩溃的聪明方法。
Sep, 2023
通过研究过度参数化的深度网络的学习动力学,我们揭示了各种体系结构的权重矩阵展现出低维结构,我们利用这些洞见通过减小中间层的宽度来压缩深度线性网络,实验证明这种压缩技术能够加速训练过程超过两倍,而不牺牲模型质量。
Nov, 2023
本文提出了一种新颖的无监督深度学习模型,叫做基于 PCA 的卷积神经网络(PCN)。PCN 的结构由多个特征提取阶段和一个非线性输出阶段组成,其中卷积层的滤波器是通过 PCA 算法学习得到的,而在非线性输出阶段,采用二进制哈希。实验结果表明,PCN 在手写数字识别、人脸识别和纹理分类等挑战性任务中表现优秀,而且由于没有监督微调的反向传播,因此比现有的深度网络更高效。
May, 2015
本文探讨了压缩和特别是修剪滤波器在解释卷积神经网络中的作用,并通过 CAR 压缩算法,演示了修剪具有视觉冗余模式选择性的滤波器的可解释性。作者比较了 AlexNet 的前 20 个 CAR 修剪滤波器的颜色选择性和形状选择性,并引入了一个量化每个图像类对 CNN 滤波器的重要性的 CAR 重要性指数,最后发现对每个 CNN 滤波器最重要和不重要的类标签提供了与该滤波器的可视化模式选择性一致的有意义的解释。
Nov, 2017
通过使用信息论分歧度量,本文提出了一个基于深度神经网络 (DNNs) 权重的概率潜在空间的新的理论框架,解释了网络稀疏性与性能之间的关系,并通过实验证明了这个理论的结果。
Feb, 2024