本篇论文研究了神经架构搜索中搜索策略的有效性,并比较了NAS搜索策略与随机体系结构选择的质量,发现当前优秀的NAS算法与随机策略表现相似,并且广泛使用的权重共享策略降低了NAS候选项的排名。通过该研究,期望设计出更为优越的NAS策略和创造一一种新的评估框架。
Feb, 2019
该研究提出了一种基于元卷积核的高效神经架构搜索策略,通过直接编码超级网络来缩小多个卷积核选项,从而在减少中间特征存储内存和资源预算的同时,实现更精细的搜索。该方法在ImageNet基准数据集上以357M FLOPs为限制可达到77.0%的top-1准确率,超过了EfficientNet和MobileNetV3,并且与最先进的NAS方法相比,在相同的计算预算下速度还快了三个数量级。
Dec, 2019
本文提出一种新方法BigNAS,使用单个共享权重集合无需进行额外的训练或后处理步骤,就可以用于神经结构搜索,该方法的预测准确率优于现有方法。
Mar, 2020
本文介绍了神经架构搜索的基本概念以及搜索空间、算法和评估技术的主要进展。
May, 2020
本文对神经网络结构自动设计的算法——神经架构搜索进行了全面的综述与研究,提出了对早期算法的问题的总结和解决方案,并对这些工作进行了详细的比较和总结。文章最后给出了可能的未来研究方向。
Jun, 2020
提出了一种自适应于分布熵的采样方法,从而实现快速的多元空间神经体系结构搜索,成为FP-NAS。通过FP-NAS,可以使搜索空间变得更大、更深、更准确,速度比其他方法快2.1倍-3.5倍,并且可以直接搜索高达1.0G FLOPS的大模型,在数字图像分类方面表现出色。
Nov, 2020
利用神经切向核和输入空间中的线性区域数来排名结构,通过 TE-NAS 框架进行训练 - free 的神经体系结构搜索,使用基于剪枝的 NAS 机制进行灵活且优越的权衡,实现在CIFAR-10和ImageNet上只花费0.5和4 GPU小时完成的高质量搜索。
Feb, 2021
FLASH是一种快速的神经架构搜索方法,它在真实硬件平台上协同优化DNN的准确性和性能,并且该算法比现有最先进的方法具有超过四个数量级的加速,在嵌入式设备上,搜索时间不到3秒。
Aug, 2021
Pi-NAS是一种非平凡的超网-Pi模型,利用跨路径学习减少不同路径之间特征的一致性移位并采用新颖的平均教师包含负样本克服参数移位和模型冲突,在不监督的情况下搜索可转移架构,并在ImageNet和一系列下游任务上展示了其相对于受监督的NAS的有效性和普适性。
Supernet是许多最新的神经架构搜索(NAS)方法中的核心组件,本文提出了一种改进的搜索策略——Supernet Shifting,以改善局部排序能力和实现模型的迁移学习。
Mar, 2024