SpiderNet: 基于无需训练的度量的混合可微进化架构搜索
提出了一种名为RE-NAS的神经架构搜索方法,结合了进化算法和强化突变控制,成功地在CIFAR-10上发现了可用于图像分类的强大架构RENASNet,并在移动ImageNet上取得了最新的最高准确率。
Aug, 2018
借助Differentiable Architecture Search,本研究提出了sharpDARTS搜索方式,该方式在CIFAR-10数据集上取得了相对错误率20-30%的进展,并在模型大小相似的情况下创下了目前最先进的1.93%的验证误差和25.1%的ImageNet top-1误差,同时,通过Differentiable Hyperparameter Grid Search和HyperCuboid搜索空间的设计和优化,本研究也证明了sharpDARTS更具通用性,提出了Max-W正则化以解决DARTS在新领域中的泛化问题。
Mar, 2019
通过发现算子相关性和复杂度差异对 DARTS 的遗传性问题进行了解决,提出了一种新的分级搜索算法,该算法用于不同的搜索空间中都能找到最佳的性能架构。
Sep, 2019
本文提出了一种将神经结构搜索(NAS)看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
本文介绍了一种基于梯度下降的神经结构搜索方法,AdvantageNAS,它通过引入梯度传递中的信用分配来提高搜索效率,减少搜索迭代次数,进一步减少NAS的时间复杂度,实验结果表明,在给定时间预算下,AdvantageNAS可以发现性能更高的神经网络结构。
Dec, 2020
本文提出了一种基于内部权重和外部架构参数的梯度优化的不同iable ARchiTecture Search (DARTS)方法,该方法只依赖于内环优化所得到的解,并省略了优化路径。同时,我们提出了 iDARTS 方法来进一步减少计算要求,理论上表明该方法的架构优化预期收敛于一个稳态点。实验结果表明,我们提出的方法领先于基线方法,获得了最优的神经网络结构.
Jun, 2021
本篇论文提出了一种基于自蒸馏不同的神经网络结构搜索方法,通过投票教师的方式引导折叠网络的训练,并且与现有最先进的神经网络结构搜索方法相比,实验结果表明了它的优越性。
Feb, 2023
神经架构搜索(NAS)从手动设计到自动化,提供了全面的概述,强调其在不同领域中的应用,包括医学成像和自然语言处理。该文档详细介绍了从专家驱动设计到算法驱动过程的转变,探索了初步的方法,例如强化学习和进化算法。还讨论了计算需求和高效NAS方法的挑战,如可微分架构搜索和硬件感知NAS。本文进一步阐述了NAS在计算机视觉、自然语言处理等领域的应用,展示了其在不同任务中优化神经网络架构的多样性和潜力。未来的方向和挑战包括计算效率和与新兴AI领域的整合,展示了NAS的动态特性和其朝着更复杂、高效的架构搜索方法的持续演化。
Feb, 2024
本研究针对可微架构搜索(DARTS)中存在的退化问题,提出了一种基于操作强度的选择标准,取代了传统的基于幅度的选择方法。研究表明,该新标准能够有效解决退化问题,且无需修改超级网络优化过程,显著提升了DARTS的稳定性和性能。
Sep, 2024