FD-MobileNet:快速下采样策略优化的 MobileNet
我们推出了一种名为 ShuffleNet 的极度计算效率的卷积神经网络体系结构,专门为计算能力非常有限(例如 10-150 MFLOPs)的移动设备设计。该体系结构利用了两个新操作,即逐点组卷积和通道混洗,以大大降低计算成本,同时保持准确性。在 ImageNet 分类和 MS COCO 对象检测方面的实验表明,ShuffleNet 的性能优于其他结构,在 40 MFLOPs 的计算预算下,Top-1 错误率(绝对 7.8%)低于近期 MobileNet 的 ImageNet 分类任务。在基于 ARM 的移动设备上,ShuffleNet 实现了与 AlexNet 相比约 13 倍的实际加速,同时保持可比的准确性。
Jul, 2017
通过使用梯度的基础方法优化 ConvNet 结构,避免像以前的方法一样枚举并分别训练个别结构,我们提出了一个可微分的神经结构搜索(DNAS)框架。FBNets 是通过 DNAS 发现的模型族,其在设计和生成自动模型方面均超过手动设计的最新模型,并在移动设备上获得更高的准确性和更低的延迟。
Dec, 2018
本文介绍了 MicroNet,一种高效的卷积神经网络,利用极低的计算成本(例如,在 ImageNet 分类中为 6 MFLOPs)。这种低成本网络在边缘设备上非常受欢迎,但通常会遭受显著的性能下降。我们提出了 Micro-Factorized 卷积和 Dynamic Shift-Max 激活函数两个设计原则,为构建性能显著优于现有最佳法在低 FLOP 区间的 MicroNets 打下基础,例如,MicroNet-M1 在 ImageNet 分类中以 12 MFLOPs 为 6.1%,超过 MobileNetV3 的 11.3%。
Nov, 2020
提出了一种快速而灵活的去噪卷积神经网络 FFDNet,具有可调的噪声等级映射作为输入,能够处理各种噪声水平并能去除空间变异噪声,且速度快于 BM3D。
Oct, 2017
本文介绍了 MobileNets 这一基于深度可分离卷积的轻量级深度神经网络架构,提出了利用全局超参数在时延和准确性之间平衡的方法,并在图像分类等多个领域进行了广泛实验。
Apr, 2017
本文研究了如何提高卷积神经网络的效率,提出了一种基于动态卷积方法的新型卷积操作,在多种 CNN 结构上进行了测试,并表明该方法可以在减少计算开销的同时保持性能,从而达到了更高的效率。
Apr, 2020
本文提出了 MobileFaceNets 类的 CNN 模型,其使用不到 100 万个参数,专为移动和嵌入式设备上的高准确度实时人脸验证而设计,并成功解决了普通移动网络在人脸验证方面的弱点,达到了与数百 MB 大小的最新大型 CNN 模型相媲美的高精度和更多超过 MobileNetV2 2 倍的实际加速。
Apr, 2018
本文提出了一种名为 DFANet 的极其高效的卷积神经网络架构,用于在资源有限的情况下进行语义分割。通过子网络和子阶段级联聚合区分特征,通过多尺度特征传播,DFANet 大大减少了参数数量,并提高了模型学习能力,在速度和分割性能之间取得平衡。在 Cityscapes 和 CamVid 数据集上的实验证明了 DFANet 具有比现有最先进的实时语义分割方法快 2 倍,FLOPs 少 8 倍的卓越性能,同时提供可比较的准确性。具体而言,它在 Cityscapes 测试数据集上实现了 70.3%的 IOU 平均值,仅使用 1.7 GFLOPs,并在一张 NVIDIA Titan X 卡上以 160 FPS 的速度进行推断,在更高分辨率图像上推断时,实现了 71.3%的 IOU 平均值和 3.4 GFLOPs。
Apr, 2019
本研究提出了新的 MobileNetV2 架构,通过在多个任务和基准上的性能改进,跨不同模型尺寸范围提高了移动模型的性能;此外,通过称为 SSDLite 的新颖框架来应用这些移动模型进行目标检测;最后,我们构建轻量级的 Mobile DeepLabv3 来进行移动语义分割。
Jan, 2018
本文提出了一种基于深度学习的快速且精确的光流预测方法:FastFlowNet,其参数较少,适用于低功耗设备,且在合成和真实数据集上的实验证明了其有效性。
Mar, 2021