FBNetV2: 可微分神经结构搜索用于空间和通道维度
通过使用梯度的基础方法优化 ConvNet 结构,避免像以前的方法一样枚举并分别训练个别结构,我们提出了一个可微分的神经结构搜索(DNAS)框架。FBNets 是通过 DNAS 发现的模型族,其在设计和生成自动模型方面均超过手动设计的最新模型,并在移动设备上获得更高的准确性和更低的延迟。
Dec, 2018
本文提出了一种名为 DenseNAS 的神经架构搜索方法,通过设计一种密集连接的搜索空间,在该空间中搜索最佳路径来获得最终的体系结构,并使用一种链式成本估算算法来近似模型成本,优化准确性和模型成本。实验结果表明,DenseNAS 在 ImageNet 上具有很高的分类准确率,并成功优化了 ResNet 等多个模型的分类性能。
Jun, 2019
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
通过提出基于任务的端到端的 NAS 方法定义,我们提出了 DSNAS,一个高效的可微分 NAS 框架,不仅可以同时优化架构和参数,而且还可以减少模型训练时间,并在 ImageNet 数据集上达到了与现有方法同等的准确率。
Feb, 2020
借助 Differentiable Architecture Search,本研究提出了 sharpDARTS 搜索方式,该方式在 CIFAR-10 数据集上取得了相对错误率 20-30% 的进展,并在模型大小相似的情况下创下了目前最先进的 1.93% 的验证误差和 25.1% 的 ImageNet top-1 误差,同时,通过 Differentiable Hyperparameter Grid Search 和 HyperCuboid 搜索空间的设计和优化,本研究也证明了 sharpDARTS 更具通用性,提出了 Max-W 正则化以解决 DARTS 在新领域中的泛化问题。
Mar, 2019
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
本文提出 NetAdaptV2,通过三项创新工作平衡各个步骤的时间并支持非可微分搜索指标,进而加速神经结构搜索并提高神经网络性能。
Mar, 2021
本文提出了基于参数重映射技术的 Fast Neural Network Adaptation (FNA) 方法,该方法可以将已有的高性能网络结构调整为不同的深度、宽度或内核大小,进而实现更高效的神经架构搜索,该方法在 MobileNetV2 的实验中,通过对现有网络进行 FNA 调整,既可用于目标分割任务又可用于目标检测任务,并且在性能上均超过了手动设计和 NAS 的现有网络设计,且其计算成本明显低于 SOTA 的目标分割 /detection NAS 方法 (DPC、Auto-DeepLab 和 DetNAS)。
Jan, 2020
该论文综述了 Differentiable Neural Architecture Search (DNAS) 领域的最新进展,提出了一种基于挑战的分类方法,并探讨了 DNAS 对全局神经架构搜索领域的影响和未来研究方向。
Apr, 2023
该文章提出了一种细粒度的搜索空间,有效地解决了神经体系结构搜索 (NAS) 中的搜索空间设计问题,其中包括资源感知的架构搜索框架和动态网络收缩技术,可同时进行搜索和训练,并在 ImageNet 上以小的搜索成本取得了最先进的性能。
Dec, 2019