寻找 MobileNetV3
本文提出了一种自动化的移动神经结构搜索(MNAS)方法,该方法将模型延迟明确地纳入主要目标,以便搜索可以识别满足准确性和延迟之间良好平衡的模型, 实验结果表明,该方法在多个视觉任务中始终优于现有的移动卷积神经网络模型,并且实现了更好的 mAP 质量。
Jul, 2018
本研究提出 MnasFPN 架构搜索空间以及结合基于延迟感知的搜索方法的对象检测模型设计,与 MobileNetV2 体系结构相匹配,优于 MobileNetV3+SSDLite 1.8 mAP,在与 NAS-FPNLite 相比,精度更高 1.0 mAP,速度更快 10%。
Dec, 2019
本文提出了 MoGA 神经架构搜索方法,通过 GPU-Aware 技术和加权进化技术,针对实际应用中移动终端 GPU 的特点进行优化,从而达到更好的性能。在类似延迟约束下,MoGA-A 在 ImageNet 上实现了 75.9%的 Top-1 精度,其他模型也表现优异。
Aug, 2019
我们介绍了最新一代的 MobileNets, 称为 MobileNetV4 (MNv4), 具有超高效的移动设备架构设计。我们引入了 Universal Inverted Bottleneck (UIB) 搜索块,这是一种统一而灵活的结构,融合了 Inverted Bottleneck (IB), ConvNext, Feed Forward Network (FFN), 以及一种新颖的 Extra Depthwise (ExtraDW) 变体。此外,我们还提出了 Mobile MQA,一种专为移动加速器量身定制的注意力块,可实现 39% 的加速。同时,我们引入了优化的神经架构搜索(NAS)方法,提高了 MNv4 的搜索效率。UIB,Mobile MQA 以及优化后的 NAS 方法的整合使得我们的 MNv4 模型成为大部分在移动 CPU、DSP、GPU 以及专用加速器(如 Apple Neural Engine 和 Google Pixel EdgeTPU)上都达到 Pareto 最优的模型,这是其他模型不具备的特点。最后,为了进一步提高准确性,我们引入了一种新颖的蒸馏技术。利用这种技术增强,我们的 MNv4-Hybrid-Large 模型在 Pixel 8 EdgeTPU 上只需 3.8ms 的运行时间,达到了 87% 的 ImageNet-1K 准确性。
Apr, 2024
本文介绍了 MobileNets 这一基于深度可分离卷积的轻量级深度神经网络架构,提出了利用全局超参数在时延和准确性之间平衡的方法,并在图像分类等多个领域进行了广泛实验。
Apr, 2017
本文介绍了基于 MobileNetV3 的 Coordinate Attention 块来解决农业害虫和疾病识别模型过重难以应用的问题,在减小模型体积和提高模型准确率的基础上,成功将模型部署到 Jetson Nano 上,可为其他嵌入式设备的农业害虫和疾病识别提供参考。
Jul, 2022
本研究提出了新的 MobileNetV2 架构,通过在多个任务和基准上的性能改进,跨不同模型尺寸范围提高了移动模型的性能;此外,通过称为 SSDLite 的新颖框架来应用这些移动模型进行目标检测;最后,我们构建轻量级的 Mobile DeepLabv3 来进行移动语义分割。
Jan, 2018
本文介绍了一种适用于语义图像分割的轻型体系结构 LiteSeg , 该体系结构采用了深度可分离卷积技术和新型 Atrous Spatial Pyramid Pooling 模块,同时提高了计算效率和精度。使用 MobileNetV2 作为骨干网络时,LiteSeg 在 Cityscapes 数据集上以 $640 imes 360$ 分辨率,每秒处理 161 帧的速度,实现了 67.81% 的平均交集联合值。
Dec, 2019
通过使用梯度的基础方法优化 ConvNet 结构,避免像以前的方法一样枚举并分别训练个别结构,我们提出了一个可微分的神经结构搜索(DNAS)框架。FBNets 是通过 DNAS 发现的模型族,其在设计和生成自动模型方面均超过手动设计的最新模型,并在移动设备上获得更高的准确性和更低的延迟。
Dec, 2018
本文提出 NetAdaptV2,通过三项创新工作平衡各个步骤的时间并支持非可微分搜索指标,进而加速神经结构搜索并提高神经网络性能。
Mar, 2021