可微架构搜索:DARTS
本文研究了 Differentiable Architecture Search 在新问题上失效的问题,发现了通过添加不同类型的正则化项可以改善其在架构空间中高验证损失曲率区域的性能,提出了几种简单的改进方案,实测表现更加稳健。这些观察结果适用于五种搜索空间,三个图像分类任务,以及稠密回归任务和语言建模任务。
Sep, 2019
本文提出了一种基于内部权重和外部架构参数的梯度优化的不同 iable ARchiTecture Search (DARTS) 方法,该方法只依赖于内环优化所得到的解,并省略了优化路径。同时,我们提出了 iDARTS 方法来进一步减少计算要求,理论上表明该方法的架构优化预期收敛于一个稳态点。实验结果表明,我们提出的方法领先于基线方法,获得了最优的神经网络结构.
Jun, 2021
该研究论文提出了一种新的可微分架构搜索方法,通过分布学习问题来加以实现,并将连续松弛的架构混合权重视为随机变量,以 Dirichlet 分布进行建模,通过路径导数优化 Dirichlet 参数,并采用渐进学习方案消除了不同 iable NAS 的大内存消耗,在 CIFAR-10、ImageNet 和 NAS-Bench-201 等几个数据集上取得了最先进的结果。
Jun, 2020
借助 Differentiable Architecture Search,本研究提出了 sharpDARTS 搜索方式,该方式在 CIFAR-10 数据集上取得了相对错误率 20-30% 的进展,并在模型大小相似的情况下创下了目前最先进的 1.93% 的验证误差和 25.1% 的 ImageNet top-1 误差,同时,通过 Differentiable Hyperparameter Grid Search 和 HyperCuboid 搜索空间的设计和优化,本研究也证明了 sharpDARTS 更具通用性,提出了 Max-W 正则化以解决 DARTS 在新领域中的泛化问题。
Mar, 2019
提出了一种新的循环不可微分神经网络结构搜索方法,命名为 CDARTS,通过引入反复振荡的联合优化目标和自省蒸馏循环反馈机制,在分类监督下,有效地实现了搜索和评估网络的联合优化,取得了 97.52%在 CIFAR10 上的 top-1 准确率和 76.3%在 ImageNet 上的 top-1 准确率。
Jun, 2020
本篇论文提出了一种名为 P-DARTS 的算法来解决神经网络架构搜索中的 transfer learning 问题,并在 CIFAR10 数据集以及几个目标问题(包括 ImageNet 分类,COCO 检测和三个 ReID benchmarks)上实现了更好的性能。
Dec, 2019
论文使用渐进式搜索算法,通过解决搜索深度过大和计算资源消耗等问题,实现对神经架构搜索的优化,获得了在 CIFAR10 和 ImageNet 数据集上的最先进表现。
Apr, 2019
本文提出了资源限制下的可微架构搜索方法 (RC-DARTS),以较小的模型尺寸和计算复杂度实现与最先进方法相当的性能,并通过对 Cifar10 和 ImageNet 数据集的实验进行了验证。
Dec, 2019
本文提出了一种基于 DARTS 和最先进的增量学习策略的增量学习强基准方法,并将架构搜索的思想扩展到正则化架构遗忘,从而在 RF 信号和图像分类任务中实现性能的显著提升,取得了比现有方法高出 10%的结果。
May, 2022