MicroNets: 用于在商用微控制器上部署 TinyML 应用的神经网络架构
MicroNAS 是一个系统,能够自动搜索和生成神经网络体系结构,用于分类时间序列数据,应用于资源受限的微控制器 (MCUs),并生成标准 tf-lite ML 模型。
Oct, 2023
MicroNAS 是一种为边缘计算中的微控制器单元(MCU)设计的硬件感知的零样本神经架构搜索框架,通过考虑目标硬件的优化性能,在不高昂的计算成本下确定最佳神经架构,并实现了近 1104 倍的搜索效率提升和超过 3.23 倍的 MCU 推断速度提升,同时保持相似的准确性。
Jan, 2024
本研究提出了 MCUNet 框架,该框架共同设计了高效的神经结构(TinyNAS)和轻量级推断引擎(TinyEngine),使得可以在微控制器上进行 ImageNet 规模的推理。
Jul, 2020
提出了一种在单个标准训练时间内将用户定义的内存和延迟约束融入不同 iable NAS 优化方法的新方法,该方法在五个物联网相关基准测试中进行了评估,包括 MLPerf Tiny 套件和 Tiny ImageNet,在仅一次搜索中降低了内存和延迟分别达到 87.4% 和 54.2%,同时保证 TinyML 的最新手动调优深度神经网络的非劣性精度。
Oct, 2023
本文介绍了如何在内存受限的微控制器单元(MCU)上部署卷积神经网络(CNN),并提出了一种自动设计 CNN 的框架 Sparse Architecture Search,将神经架构搜索与剪枝相结合,通过在 IoT 数据集上的测试,证明了这种方法可以在满足 MCU 内存限制的同时实现更好的性能。
May, 2019
Tiny Machine Learning (TinyML)是机器学习的新领域。通过将深度学习模型应用于无数物联网设备和微控制器(MCU),我们扩大了人工智能应用的范围并实现了无处不在的智能。然而,由于硬件限制,TinyML 具有一定挑战性,因为内存资源有限,难以容纳为云和移动平台设计的深度学习模型;同时,裸机设备对编译器和推理引擎的支持有限。因此,我们需要对算法和系统栈进行共同设计,以实现 TinyML。在此综述中,我们首先讨论 TinyML 的定义、挑战和应用;接下来,我们调查了最近在 MCUs 上 TinyML 和深度学习的进展;然后,我们介绍了 MCUNet,展示了如何通过系统 - 算法共同设计,在物联网设备上实现 ImageNet 规模的人工智能应用;我们还将解决方案从推理扩展到训练,并介绍了小型设备上的训练技术;最后,我们展示了这个领域的未来发展方向。今天的大型模型可能成为明天的小型模型,TinyML 的范围应该随着时间的推移而不断发展和适应。
Mar, 2024
通过在芯片上存储全部功能和权重,完全消除了离线内存访问的延迟和能耗,并提出了一种应用特定的指令集,以实现敏捷开发和快速部署。实验表明,基于该模型、NCP 和指令集的 TinyML 系统在实现物体检测和识别时,取得了可观的准确度,并实现了纪录级的超低功耗,只有 160mW。
Jul, 2022
本文介绍了一个新的深度神经网络量化和部署的框架,MicroAI,并研究了在低功耗 32 位微控制器上应用该框架的优化方法和效果。通过对三个不同数据集 (UCI-HAR、Spoken MNIST 和 GTSRB) 的评估,与两种已有的嵌入式推理引擎 (TensorFlow Lite for Microcontrollers 和 STM32CubeAI) 的比较和在 ARM Cortex-M4F 微控制器 (Ambiq Apollo3 和 STM32L452RE) 上的验证,证明了 MicroAI 具有更好的内存和功耗效率。
May, 2021
本文提出了一种自动化的移动神经结构搜索(MNAS)方法,该方法将模型延迟明确地纳入主要目标,以便搜索可以识别满足准确性和延迟之间良好平衡的模型, 实验结果表明,该方法在多个视觉任务中始终优于现有的移动卷积神经网络模型,并且实现了更好的 mAP 质量。
Jul, 2018