关于资源受限硬件平台的神经架构搜索
提出一种硬件感知量化神经架构搜索 (HQNAS) 框架,将神经结构搜索和量化方法结合,通过权值共享和比特共享以高效优雅的方式完成。在 CIFAR10 中只需要 4 小时 GPU 时间,能发现出卓越的 NN 策略。同时,我们的方法支持在线学习和持续适应环境。
Oct, 2022
本文提出了一种新的硬件感知的神经架构搜索框架,名为 FNAS,使用 Field Programmable Gate Arrays 作为车辆,通过性能抽象模型对神经架构进行快速剪枝,以保证满足实现规范的延迟,并在精度下降少于 1% 的情况下快速搜索到有效的架构。
Jan, 2019
该论文综述了当前关于硬件感知神经架构搜索的研究,包括搜索空间,搜索策略,加速技术和硬件成本估计策略。研究者采用多目标优化算法来解决神经架构复杂,导致在 IoT,移动和嵌入式系统等资源受限的平台上部署困难的问题,并讨论了相关算法及策略的挑战和局限性,同时为未来的研究提供参考,这是首篇针对硬件感知神经架构搜索的论文综述。
Jan, 2021
该研究提出了一种新颖的硬件和软件协同探索框架,用于高效的神经架构搜索。该框架同时探索体系结构搜索空间和硬件设计空间,旨在找到最佳的神经架构和硬件配置,以同时达到最大的测试精度和硬件效率。该方法通过强化学习控制器,可以在 ImageNet 数据集上实现比现有技术更高的吞吐量、节能和搜索效率
Jul, 2019
提出了一种在单个标准训练时间内将用户定义的内存和延迟约束融入不同 iable NAS 优化方法的新方法,该方法在五个物联网相关基准测试中进行了评估,包括 MLPerf Tiny 套件和 Tiny ImageNet,在仅一次搜索中降低了内存和延迟分别达到 87.4% 和 54.2%,同时保证 TinyML 的最新手动调优深度神经网络的非劣性精度。
Oct, 2023
过去十年,深度学习的发展在计算机视觉、自然语言理解、语音识别和强化学习等多个领域取得了重大突破。神经架构搜索是自动化机器学习的必然发展方向,已经在很多任务上超过了最好的人类设计架构。本文概述不同的搜索空间、算法和加速技术,并介绍了基准、最佳实践、其他综述和开放源代码库。
Jan, 2023
使用基于块的 NAS 方法实现在大规模任务上的量化感知 NAS (INT8 和 FB-MP),并在 Cityscapes 数据集上展示了显著的结果,找到了比 DeepLabV3 (INT8) 模型小 33%, INT8 模型快 17.6% 的 FB-MP 模型,而不影响任务性能。
Jan, 2024
该论文提出了一种名为 HotNAS 的新颖框架,通过从现有的预训练模型(即模型库)开始,以 “热” 状态启动搜索过程,从而避免了漫长的训练时间,从而将搜索时间从 200 GPU 小时缩短为不到 3 GPU 小时。在 HotNAS 中,我们将硬件设计空间、神经体系结构搜索空间和压缩空间相互集成,以通过模型压缩来创建新的减少延迟的机会,而同时也带来了挑战。论文通过 ImageNet 数据集和 Xilinx FPGA 的实验表明,在 5ms 的时间约束下,HotNAS 生成的神经体系结构的 Top-1 和 Top-5 精度与现有的神经体系结构相比,可以实现高达 5.79% 和 3.97% 的精度提高。
Jul, 2020
本文提出了一种新的硬件感知神经结构搜索框架,旨在优化目标平台上的任务精度、推理延迟和资源利用。通过使用该框架和新的资源利用模型,我们在 CIFAR-10 和 Imagenet-100 数据集上实现了 2.8-4 倍的 DNN 推理加速,并获得了与以往硬件感知神经结构搜索方法相似或更好的图像分类精度。
Mar, 2022
FLASH 是一种快速的神经架构搜索方法,它在真实硬件平台上协同优化 DNN 的准确性和性能,并且该算法比现有最先进的方法具有超过四个数量级的加速,在嵌入式设备上,搜索时间不到 3 秒。
Aug, 2021