DPP-Net: 设备感知渐进式搜索 Pareto - 最优神经网络架构
本文介绍了神经架构搜索的问题,并调研了最近的研究成果。然后,我们深入探讨了两项对 NAS 进行多目标框架扩展的最新进展:MONAS 和 DPP-Net。MONAS 和 DPP-Net 都能够优化精度和设备带入的其他目标,寻找可以在广泛设备上最好部署的神经架构。实验结果显示,MONAS 和 DPP-Net 找到的架构在各种设备上均达到了 Pareto 最优性。
Aug, 2018
边缘计算旨在使边缘设备(如物联网设备)能够在本地处理数据,而不是依赖云端。本文提出了一种基于 DCA-NAS 的快速神经网络架构搜索方法,该方法结合了边缘设备的约束条件,如模型大小和浮点运算,通过权重共享和通道瓶颈技术加快搜索速度,并发现了具有低推断延迟和最先进性能的特定设备架构。
Jul, 2023
该研究提出了一种针对各种 DNN 层的精细结构修剪通用类别,并支持不同 DNN 和不同修剪方案的综合编译自动代码生成框架,进一步提出了一个编译器感知的网络修剪与架构搜索(NPAS) 方法,利用基于强化学习的元模型过程解决大规模搜索空间问题,以获得比先前工作更好的手机图像分类性能。
Dec, 2020
本文提出 DPNAS 框架,采用神经架构搜索自动生成深度学习模型,以实现隐私保护学习,我们证明了该框架的有效性,所生成模型 DPNASNet 在隐私 / 效用权衡方面达到了最先进的表现。
Oct, 2021
该论文介绍了一种使用神经架构搜索技术快速定制卷积神经网络模型的方法。该方法构建了一个分布式的神经架构搜索系统,探索一个新的潜在搜索空间,并提出了一种使用 GPU 进行目标推理的优化模型 GPUNet,其推理速度可达 1ms,比现有模型具有更快的速度和更好的准确率,在不同任务和场景中都具有广泛的适应性。
Apr, 2022
我们提出了一种新的神经架构搜索算法,通过超网络对设备和多个目标进行参数化和条件化,实现了性能和硬件度量之间的权衡,并在一次搜索中获得多设备上的具有代表性和多样性的架构。在高达 19 个硬件设备和 3 个目标的大量实验证明了方法的有效性和可扩展性。最后,我们证明在不增加额外成本的情况下,我们的方法在不同搜索空间和数据集上优于现有的多目标优化神经架构搜索方法,包括 ImageNet-1k 上的 MobileNetV3 和机器翻译中的 Transformer 空间。
Feb, 2024
使用安全多方计算方法构建隐私保护的神经架构搜索框架,其中使用重新设计的 ReLU 和 Max-pooling 保混乱电路以及对秘密共享的 Softmax 函数的新替代方法,分析和实验表明其在安全性,效率和准确性方面具有优越性。
Apr, 2022
该研究提出了一种名为 EPNAS(高效渐进的神经结构搜索)的神经结构搜索方法,它通过一种新的渐进搜索策略和基于 REINFORCE 的性能预测有效地处理大型搜索空间。EPNAS 被设计成能够在并行系统(如 GPU/TPU 集群)上并行搜索目标网络。该方法还可以推广到具有多个资源限制的体系结构搜索,这对于在移动设备和云平台等广泛平台上进行部署非常重要。在使用 CIFAR10 和 ImageNet 进行图像识别任务时,该方法在架构搜索速度和识别准确性方面均优于先进的网络结构和高效的 NAS 算法。
Jul, 2019
提出了一种在单个标准训练时间内将用户定义的内存和延迟约束融入不同 iable NAS 优化方法的新方法,该方法在五个物联网相关基准测试中进行了评估,包括 MLPerf Tiny 套件和 Tiny ImageNet,在仅一次搜索中降低了内存和延迟分别达到 87.4% 和 54.2%,同时保证 TinyML 的最新手动调优深度神经网络的非劣性精度。
Oct, 2023
本文介绍了一种基于 Single-Path NAS 的新型可微分神经架构搜索方法,可以在移动设备延迟限制下设计高效的卷积神经网络,并实现了 Pixel 1 手机上的图像分类,取得了当前最先进的结果。
May, 2019