稀疏超网络下的神经架构搜索
本文提出一种迭代学习方法,旨在解决神经架构搜索中的元学习问题。该方法使用参数共享思想,利用代理模型来减少 NAS 运行时间,并在 DARTs 搜索空间和 NAS-Bench-201 上验证了其可行性。此外,作者还提供了理论分析及脱敏研究以进一步深入了解其技术。
Jun, 2019
该论文提出了一种名为 DSO-NAS 的神经架构搜索方法,采用基于稀疏正则化的模型修剪视角,利用逐步引入稀疏网络的方法来解决搜索空间庞大且不连续的问题,在 CIFAR-10 数据集上达到了 2.84%的平均测试误差,在 ImageNet 数据集上,仅使用 8 块 GPU 600M FLOPs 进行 18 小时的训练可以达到 25.4%的测试误差。
Nov, 2018
本文介绍了一种使用简化的超网络进行单路径神经架构搜索的方法,该方法易于训练、快速搜索、灵活支持不同的搜索约束,并在大规模数据集 ImageNet 上实现了最先进的性能。
Mar, 2019
提出一种名为 SGNAS 的一次搜索神经结构的框架,使用生成器生成子网络以更加高效和灵活地进行搜索,同时还提出了一种名为统一超网络的新单路径超网络以进一步提高搜索效率和减少 GPU 内存消耗,在 ImageNet 数据集上仅用 5 个 GPU 小时完成 $N$ 个不同硬件限制下的搜索,准确率达 77.1%。
Mar, 2021
该研究提出了 few-shot NAS,利用多个超级网络(称为子超级网络)覆盖搜索空间的不同区域,以缓解操作之间的不良共适应,并证明其在多项任务中能够显著提高各种一次性方法的准确性,包括在 NasBench-201 和 NasBench1-shot-1 上的 3 个不同任务中的 4 个基于梯度的和 6 个基于搜索的方法,并在 ImageNet、CIFAR10 和 Auto-GAN 上取得最新水平。
Jun, 2020
本文利用神经结构搜索技术,提出了一种新型的神经元架构设计方法,以在时序处理、二进制信息传输等方面提高脉冲神经网络(SNN)的性能,实验结果表明,所创建的 SNASNet 结构在多项图像识别测试中表现出优秀的性能,且具有高效能的特性。
Jan, 2022
本论文提出一种高效的连续演化方法用于搜索神经网络,该方法在优化神经网络的同时,使用优化后的神经网络在下一次的演化中,大大地加速了网络生成的效率。实验表明,该方法产生的神经网络在 mobile 设置下,参数数量在 3.7M 到 5.1M 之间不等,在 ImageNet 数据集上的表现超过了目前已有的先进方法。
Sep, 2019
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
该研究提出了一种基于元卷积核的高效神经架构搜索策略,通过直接编码超级网络来缩小多个卷积核选项,从而在减少中间特征存储内存和资源预算的同时,实现更精细的搜索。该方法在 ImageNet 基准数据集上以 357M FLOPs 为限制可达到 77.0% 的 top-1 准确率,超过了 EfficientNet 和 MobileNetV3,并且与最先进的 NAS 方法相比,在相同的计算预算下速度还快了三个数量级。
Dec, 2019