Mar, 2022

朝着更少限制的宏观神经架构搜索

TL;DR本文提出了一种名为 LCMNAS 的方法,它能够在非约束搜索空间条件下执行宏搜索,同时不依赖于预定义的启发式算法或范围限制,并引入三个组成部分来推动神经架构搜索方向的发展:利用有关广泛应用架构的信息,自主生成基于具有隐藏属性的加权有向图的复杂搜索空间的方法,从头开始生成完整的架构的进化搜索策略,以及结合有关初始化阶段和更低保真度估计的信息来推断它们对于建模复杂函数的训练能力和容量情况的混合性能估计方法,在 13 个不同的数据集上进行了实验,显示出 LCMNAS 能够使用最少 GPU 计算生成单元和基于宏的架构,并在各方面都取得了最先进的结果。