DDNAS: 文本分类离散可微神经构架搜索
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
该论文综述了 Differentiable Neural Architecture Search (DNAS) 领域的最新进展,提出了一种基于挑战的分类方法,并探讨了 DNAS 对全局神经架构搜索领域的影响和未来研究方向。
Apr, 2023
本研究提供一个可扩展且模块化的框架,用于 Differentiable Neural Architecture Search 的自动深度神经网络架构搜索,并应用于广告点击率预测领域,取得了该领域内最优结果。
Oct, 2021
通过提出基于任务的端到端的 NAS 方法定义,我们提出了 DSNAS,一个高效的可微分 NAS 框架,不仅可以同时优化架构和参数,而且还可以减少模型训练时间,并在 ImageNet 数据集上达到了与现有方法同等的准确率。
Feb, 2020
该研究论文提出了一种新的可微分架构搜索方法,通过分布学习问题来加以实现,并将连续松弛的架构混合权重视为随机变量,以 Dirichlet 分布进行建模,通过路径导数优化 Dirichlet 参数,并采用渐进学习方案消除了不同 iable NAS 的大内存消耗,在 CIFAR-10、ImageNet 和 NAS-Bench-201 等几个数据集上取得了最先进的结果。
Jun, 2020
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
UNAS 是一个统一的框架,将最新的 DNAS 和 RL 方法封装在一个框架中,在维持较低的搜索成本的同时,能够在一个统一的框架中搜索具有可微和不可微标准的架构。通过 CIFAR-10、CIFAR-100 和 ImageNet 数据集的广泛实验,我们展示了 UNAS 在所有三个数据集上的平均精度与在 DARTS 空间中搜索的架构相比具有最先进的表现,并且在 ProxylessNAS 搜索空间中可以找到一个高效而准确的架构,超越了现有的基于 MobileNetV2 的架构。
Dec, 2019
本文研究了基于神经架构搜索(NAS)的自动机器学习(AutoML)在计算机视觉以外的任务上的应用,作者提出了一种名为 DASH 的不同 iable NAS 算法,用于搜索卷积神经网络(CNN)的卷积核,实现了在多种应用领域上最先进的自动化性能。
Apr, 2022
神经网络、深度学习、神经架构搜索、数据集、NAS 挑战是研究论文的关键词,该论文介绍了为一系列 NAS 挑战创建的八个数据集,以及使用标准深度学习方法和挑战参与者的最佳结果进行的实验。
Apr, 2024
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021