神经架构搜索的随机搜索与可复现性
本篇论文研究了神经架构搜索中搜索策略的有效性,并比较了 NAS 搜索策略与随机体系结构选择的质量,发现当前优秀的 NAS 算法与随机策略表现相似,并且广泛使用的权重共享策略降低了 NAS 候选项的排名。通过该研究,期望设计出更为优越的 NAS 策略和创造一一种新的评估框架。
Feb, 2019
提出 NAS-Bench-201,通过设计新的搜索空间和提供多个数据集的结果以及诊断信息,为几乎所有最新的 NAS 算法提供一个统一的基准,从而避免了重复训练,并提高了搜索算法的效率。
Jan, 2020
本文提出了一种名为 ' 随机标签神经架构搜索 ' 的新型神经架构搜索范例,该算法基于 ' 易于收敛假设 ',只需要使用随机标签便可搜索到性能优异的候选网络,实验证明,该算法在多个数据集和搜索空间中均取得了比当前最先进的 NAS 方法(如 PC-DARTS,Single Path One-Shot)更好甚至可比的效果,为进一步了解 NAS 的本质提供了新思路。
Jan, 2021
提出了一种名为 RE-NAS 的神经架构搜索方法,结合了进化算法和强化突变控制,成功地在 CIFAR-10 上发现了可用于图像分类的强大架构 RENASNet,并在移动 ImageNet 上取得了最新的最高准确率。
Aug, 2018
在本文中,我们提出了用于比较 NAS 方法的基准测试,并对常用的 DARTS search space 进行了进一步的实验。我们发现,手工设计的宏观结构比搜索到的微观结构更重要,并且深度间隔是一个真实的现象,最后我们提出了最佳实践以帮助缓解当前的 NAS 缺陷。
Dec, 2019
本文介绍了 NAS-Bench-101,这是第一个公开的神经架构搜索数据集,并描述了它是如何通过在 CIFAR-10 上训练和评估超过 423k 个卷积架构来构建的,旨在帮助研究者在毫秒内查询预计算的数据集来评估各种模型的质量。此外,作者还展示了该数据集作为整体的可用性以及对一系列架构优化算法进行基准测试的实用性。
Feb, 2019
本文提出了一个通用框架,用于一次性神经架构搜索,并引入了一个基于最近推出的大规模表格基准 NAS-Bench-101 的基准测试框架,以评估一次性 NAS 方法的廉价性能,并比较了几种最先进的一次性 NAS 方法,检查它们对超参数的敏感性,以及如何通过调整它们的超参数来改进它们的性能,并将它们的性能与 NAS-Bench-101 的黑盒优化器进行比较。
Jan, 2020
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
本文通过对 NAS-Benchmark 的分析,证明了通过直接在 NAS-Bench-201,ImageNet16-120 和 TransNAS-Bench-101 上搜索可以产生更可靠的结果,找到了卷积层对体系结构性能的影响,为评估和比较 NAS 方法提供了建议。
Mar, 2023