ISTA-NAS:通过稀疏编码实现高效、一致的神经架构搜索
本论文旨在将神经架构搜索的问题从单路径和多路径搜索扩大到自动混合路径搜索。我们提出了一种新的连续架构表示方法,利用稀疏超网络和稀疏性约束来实现自动混合路径搜索。同时,我们采用了分层加速的近端梯度算法来优化所提出的稀疏超网络,并在卷积神经网络和循环神经网络搜索中进行了广泛的实验,证明了该方法能够搜索到紧凑、通用和强大的神经结构。
Jul, 2020
本文介绍了一种基于梯度下降的神经结构搜索方法,AdvantageNAS,它通过引入梯度传递中的信用分配来提高搜索效率,减少搜索迭代次数,进一步减少 NAS 的时间复杂度,实验结果表明,在给定时间预算下,AdvantageNAS 可以发现性能更高的神经网络结构。
Dec, 2020
该论文提出了一种名为 DSO-NAS 的神经架构搜索方法,采用基于稀疏正则化的模型修剪视角,利用逐步引入稀疏网络的方法来解决搜索空间庞大且不连续的问题,在 CIFAR-10 数据集上达到了 2.84%的平均测试误差,在 ImageNet 数据集上,仅使用 8 块 GPU 600M FLOPs 进行 18 小时的训练可以达到 25.4%的测试误差。
Nov, 2018
本文提出一种迭代学习方法,旨在解决神经架构搜索中的元学习问题。该方法使用参数共享思想,利用代理模型来减少 NAS 运行时间,并在 DARTs 搜索空间和 NAS-Bench-201 上验证了其可行性。此外,作者还提供了理论分析及脱敏研究以进一步深入了解其技术。
Jun, 2019
提出了随机神经架构搜索 (SNAS),作为一种经济高效的神经架构搜索方案,它在同一次反向传播中训练神经操作参数和架构分布参数,同时保持 NAS 管道的完整性和可区分性。通过对单元搜索空间的联合分布的参数进行优化来重构 NAS,提出一种全新的搜索梯度,优化效果比基于强化学习的 NAS 更高,同时加入局部可分解奖励,以强制实施资源有效约束,最终在 CIFAR-10 数据集上得到了业界领先的准确性。
Dec, 2018
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
该文章提出了一种细粒度的搜索空间,有效地解决了神经体系结构搜索 (NAS) 中的搜索空间设计问题,其中包括资源感知的架构搜索框架和动态网络收缩技术,可同时进行搜索和训练,并在 ImageNet 上以小的搜索成本取得了最先进的性能。
Dec, 2019
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
本文提出了一种神经体系结构搜索 (NAS) 框架,用于自动优化大规模设计空间中的神经体系结构,支持 3D 医学图像分割任务,其优化准确度在基准测试数据集上优于人类设计的 3D U-Net,经过优化的体系结构适用于不同的任务。
Jun, 2019