学习搜索空间分割的多目标神经架构搜索
我们提出了一种新的神经架构搜索算法,通过超网络对设备和多个目标进行参数化和条件化,实现了性能和硬件度量之间的权衡,并在一次搜索中获得多设备上的具有代表性和多样性的架构。在高达 19 个硬件设备和 3 个目标的大量实验证明了方法的有效性和可扩展性。最后,我们证明在不增加额外成本的情况下,我们的方法在不同搜索空间和数据集上优于现有的多目标优化神经架构搜索方法,包括 ImageNet-1k 上的 MobileNetV3 和机器翻译中的 Transformer 空间。
Feb, 2024
我们使用神经架构搜索(NAS)方法,通过贝叶斯优化构建卷积神经网络(CNN)模型,以灵活适配的深度增强内存计算(IMC)架构上的多样机器学习(ML)任务的效率。通过在超过 6.4 亿网络配置的庞大搜索空间中探索贝叶斯搜索算法,我们验证了我们的 NAS 方法在 IMC 架构部署中取得高准确性、低延迟和能量消耗的平衡解的有效性,涵盖了三个不同的图像分类数据集。
Jun, 2024
该研究论文总结了多目标神经架构搜索(MONAS)领域的重要工作,并讨论了神经架构搜索的分类方法、目标函数及其随机性对多目标优化过程的影响,并提出了未来研究的方向。
Jul, 2023
基于多目标进化算法的循环神经网络架构搜索方法在复杂度优化期间使用近似网络形态学,结果显示该方法能够找到与最先进手动设计的循环神经网络架构相比具有可比性能但计算需求较低的新型循环神经网络架构。
Mar, 2024
本文介绍了神经架构搜索的问题,并调研了最近的研究成果。然后,我们深入探讨了两项对 NAS 进行多目标框架扩展的最新进展:MONAS 和 DPP-Net。MONAS 和 DPP-Net 都能够优化精度和设备带入的其他目标,寻找可以在广泛设备上最好部署的神经架构。实验结果显示,MONAS 和 DPP-Net 找到的架构在各种设备上均达到了 Pareto 最优性。
Aug, 2018
本文提出一种新的基于强化学习的方法来优化在小型设备上部署的深度神经网络,以便在保持预测精度的同时最小化内存占用和计算复杂度。实验结果表明,该方法在不同数据集和架构上均优于现有的多目标贝叶斯优化方法。
May, 2023
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
LEMONADE 是一种多目标架构搜索算法,利用进化算法和近似网络同构算子来解决神经网络搜索领域的资源浪费问题,实现了高性能、低资源消耗的自动化神经网络设计。
Apr, 2018
提出了一种名为 MO-HDNAS 的多目标方法,通过优化三个目标(最大化表示相似度度量、最小化硬件成本和最大化硬件成本的多样性)在单次运行中以低计算成本的方式,识别出一组权衡的架构,有效地解决了适用于图像分类任务的硬件感知神经架构搜索问题。
Apr, 2024