基于查找的卷积神经网络(LCNN)
本文介绍了一种基于 MKLDNN 加速策略的轻量级 CPU 网络 PP-LCNet,这种网络在多项任务上得到了改进。通过技术上的提升,PP-LCNet 在分类任务中的准确性大大优于之前的网络结构,并在计算机视觉的下游任务中表现出色。该研究使用的所有实验都是基于 PaddlePaddle 实现的,并提供相应的代码和预训练模型。
Sep, 2021
我们通过重新组织操作,将传统的一层一层的数据流规则打破,设计了一种轻量级架构,能够在不影响准确性的情况下移除大部分中间数据,有效降低内存消耗。我们特别研究了两个连续行之间的较弱依赖关系,提出了两种解决方案,并通过评估验证了其有效性。我们还验证了我们的中间数据流优化可以顺利结合现有工作以获得更好的内存减少效果。
Jan, 2024
提出了一种全动态模型的方法,称为 LC-Net,旨在最大化深度卷积神经网络的计算效率和任务准确性,通过以层和卷积滤波通道为单位的层次推理动力学,能够预测冗余层和卷积滤波器 / 通道并学习保留计算结果以实现最大化任务准确性。
Jul, 2020
本文研究在时间约束成本下,卷积神经网络的准确性和架构设计所需的权衡。通过一系列对比实验,得出一个在 ImageNet 数据集中准确率很高(11.8% 的 top-5 误差,10 视图测试),但比 AlexNet(16.0% 的 top-5 误差,10 视图测试)快 20% 的网络架构。
Dec, 2014
介绍了一种轻量级的卷积神经网络算法 (LCNN),通过将分类器的搜索空间缩小到监视视频帧中的人物对象,提出的 LCNN 算法能够在边缘设备上以可承受的计算工作量检测行人.
Apr, 2018
卷积神经网络(CNN)在面对声音识别、自然语言处理或计算机视觉等具有挑战性的任务时被广泛使用。本文提出了一种新颖的 CNN 优化和构建方法,基于剪枝和知识蒸馏,旨在确定卷积层的重要性,以减少计算要求,并在资源受限设备上部署。经过彻底的实证研究,包括最佳数据集(CIFAR-10、CIFAR-100 和 Imagenet)和 CNN 架构(VGG-16、ResNet-50、DenseNet-40 和 MobileNet),我们评估了该提议,并将准确度损失和剩余参数比率作为客观指标来比较 OCNNA 与其他最先进的方法的性能。与其他 20 多种卷积神经网络简化算法相比,我们的方法取得了出色的结果。因此,OCNNA 是一种竞争性的 CNN 构建方法,可以简化神经网络部署到物联网或资源有限设备的过程。
Dec, 2023
本文提出了一种硬件有效的架构,Linearized Convolution Network(LiCo-Net),专门为微控制器等节能处理器单元进行关键字识别。在推理阶段使用高效的 int8 线性运算符,在训练阶段应用流式卷积以保持模型容量高,实验结果表明,LiCo-Net 在硬件效率方面优于单值分解滤波器(SVDF),检测性能相当。与 SVDF 相比,LiCo-Net 在 HiFi4 DSP 上减少了 40%的周期。
Nov, 2022
本文提出了一种新的卷积神经网络模型,称为双卷积神经网络,该模型通过共享权重参数进行优化,在图像分类领域有着显著的性能提升。在 CIFAR-10,CIFAR-100 和 ImageNet 等图像分类基准测试中,该模型的性能均显著优于其他竞争模型。同时,本文还说明了双卷积神经网络在多方面性能均有体现,既可以构建更准确的模型,又可以以牺牲一定准确性的代价来减少模型的内存占用。
Oct, 2016
该研究提出了一种名为量化卷积神经网络的模型,旨在通过量化卷积层中的滤波器核和全连接层中的权重矩阵,实现计算效率的提升和存储内存开销的降低,相对于非量化模型,该模型在 ILSVRC-12 基准测试中达到 4~6 倍的加速和 15~20 倍的压缩,仅有 1% 左右的分类准确率损失,并且甚至可以在移动设备上在一秒内精准分类照片。
Dec, 2015