本文提出了一种基于纵向梯度下降的可微分神经结构搜索方法(称为NASP),其通过将搜索过程重新构成为一个优化问题,并在前向和反向传播期间仅允许更新一个操作的约束条件下,以10倍于DARTS方法的计算时间加速获得高性能的架构。
May, 2019
本文提出了一种名为DARTS+的算法,通过设置一个明确的早停策略来避免 Differentiable Architecture Search(DARTS) 在优化时遇到过拟合问题,并将其应用在基准数据集上取得了较好的结果。
Sep, 2019
本研究针对DARTS的性能崩溃问题,提出采用更全局的优化方案,以更好地探索神经结构搜索空间,从而发现测试性能更佳、参数更少的神经网络架构。
Apr, 2021
本文提出了一种基于内部权重和外部架构参数的梯度优化的不同iable ARchiTecture Search (DARTS)方法,该方法只依赖于内环优化所得到的解,并省略了优化路径。同时,我们提出了 iDARTS 方法来进一步减少计算要求,理论上表明该方法的架构优化预期收敛于一个稳态点。实验结果表明,我们提出的方法领先于基线方法,获得了最优的神经网络结构.
Jun, 2021
本文介绍了一种替代基于权重参数选择最大操作的NAS体系结构选择方法,并通过实验证明这种方法可以提取出更好的架构,并且可以纠正DARTS中部分失败模式。
Aug, 2021
本文提出Single-DARTS,通过使用单级优化替换双级优化,显著减轻了性能坍塌,提高了体系结构搜索的稳定性,并在主流搜索空间上实现了最先进的性能。
通过理论和实证分析,发现DARTS算法中存在的权值共享框架以及极限收敛点限制了模型最优结构的选择,导致性能严重下降,提出了两个新的正则化项解决了上述问题。
Oct, 2022
本文介绍了一种名为OPP-DARTS的操作级渐进可微分神经结构搜索算法,通过逐步增加候选操作来有效地避免跳跃连接聚合,并同时探索更好的架构。实验结果表明,我们的方法在CIFAR-10上的性能优于标准DARTS,迁移性能也超越了标准DARTS。此外,我们进一步展示了我们的方法在三个简单搜索空间上的鲁棒性优于标准DARTS。
Feb, 2023
本篇论文提出了一种基于自蒸馏不同的神经网络结构搜索方法,通过投票教师的方式引导折叠网络的训练,并且与现有最先进的神经网络结构搜索方法相比,实验结果表明了它的优越性。
对现有的神经网络架构搜索方法进行了研究,发现DARTS方法在寻找优秀子网络方面效率高且简单,但存在性能崩溃的问题,导致架构充斥着无需参数的操作,提出了IS-DARTS方法来解决这些问题,并通过理论和实验分析揭示了问题的根本原因和解决途径,验证了IS-DARTS的有效性。
Dec, 2023