本文提出自适应通道分配的可微分架构搜索方法 (ACA-DARTS),通过从运算空间中删除跳跃连接的方法,自动重新填充评估阶段的跳跃连接,解决由缺乏跳跃连接引起的性能降级问题,并在整个 ImageNet 数据集上直接搜索,实验表明 ACA-DARTS 可以提高搜索稳定性并大大加速 DARTS 十倍以上,同时获得更高的准确性。
Apr, 2022
通过实验,揭示了 Differentiable Architecture Search 权重共享神经结构搜索的性能下降是由于竞争中的不公平优势导致的,并提出了 “公平 DARTS” 方法,在其中将独占竞争放松为合作。实施了零 - 一损失来推动对架构权重的期望约束,并获得了 CIFAR-10 和 ImageNet 的最新技术结果。
Nov, 2019
本研究针对 DARTS 的性能崩溃问题,提出采用更全局的优化方案,以更好地探索神经结构搜索空间,从而发现测试性能更佳、参数更少的神经网络架构。
Apr, 2021
本文提出 Single-DARTS,通过使用单级优化替换双级优化,显著减轻了性能坍塌,提高了体系结构搜索的稳定性,并在主流搜索空间上实现了最先进的性能。
Aug, 2021
本文提出了一种名为 DARTS + 的算法,通过设置一个明确的早停策略来避免 Differentiable Architecture Search (DARTS) 在优化时遇到过拟合问题,并将其应用在基准数据集上取得了较好的结果。
Sep, 2019
本文研究了 Differentiable Architecture Search 在新问题上失效的问题,发现了通过添加不同类型的正则化项可以改善其在架构空间中高验证损失曲率区域的性能,提出了几种简单的改进方案,实测表现更加稳健。这些观察结果适用于五种搜索空间,三个图像分类任务,以及稠密回归任务和语言建模任务。
本文介绍了一种名为 OPP-DARTS 的操作级渐进可微分神经结构搜索算法,通过逐步增加候选操作来有效地避免跳跃连接聚合,并同时探索更好的架构。实验结果表明,我们的方法在 CIFAR-10 上的性能优于标准 DARTS,迁移性能也超越了标准 DARTS。此外,我们进一步展示了我们的方法在三个简单搜索空间上的鲁棒性优于标准 DARTS。
Feb, 2023
通过对 DARTS 进行理论分析,我们证明了带有更多跳跃连接的体系结构可以比其他候选体系结构更快地收敛,从而被 DARTS 选中。基于这个结果,我们提出了一种理论启发式的路径正则化 DARTS(path-regularized DARTS),其中包括两个关键模块:为避免操作间的不公平竞争而引入的差分分组稀疏二进制门,以及用于激发搜索探索的路径 - 深度正则化,旨在搜索深层结构,从而验证了其优势。
Jun, 2020
本研究提出了一种基于稀疏正则化近似和高效混合稀疏训练方案的改进方法,以消除训练过程中信息绕过泄漏,从而提高不确定性极大的 Differentiable architecture search (DARTS) 的鲁棒性。
Jun, 2023
提出一种基于扰动的正则化方法 SmoothDARTS,通过随机平滑或对抗攻击稳定 DARTS-based 方法,能够在四个数据集上提高模型的稳定性和性能,并通过数学证明表明该方法能隐式地规范化验证损失的 Hessian 范数以实现更平滑的损失和更好的性能。
Feb, 2020