NetAdaptV2: 带快速超级网络训练和架构优化的高效神经网络架构搜索
本文提出了一个自动且高效地从预训练的超网络中找到针对不同性能度量和硬件配置进行优化的子网络的综合系统,在多个领域中与现有最先进的超网络训练方法无缝配合,展示了如何将新颖的搜索策略与演化算法相结合,加速 ResNet50、MobileNetV3 和 Transformer 的搜索过程,并展示了比最先进的贝叶斯优化 WeakNAS 方法快 8 倍的搜索结果。
Feb, 2022
本论文提出一种高效的连续演化方法用于搜索神经网络,该方法在优化神经网络的同时,使用优化后的神经网络在下一次的演化中,大大地加速了网络生成的效率。实验表明,该方法产生的神经网络在 mobile 设置下,参数数量在 3.7M 到 5.1M 之间不等,在 ImageNet 数据集上的表现超过了目前已有的先进方法。
Sep, 2019
本文提出了一种高效的 NAS 算法,用于生成具有多个竞争目标的任务特定模型,在标准基准数据集上表现优异,且搜索效率大幅提高,并在六个不同的非标准数据集上证明了该方法的有效性和多样性。
Jul, 2020
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021
通过提出基于任务的端到端的 NAS 方法定义,我们提出了 DSNAS,一个高效的可微分 NAS 框架,不仅可以同时优化架构和参数,而且还可以减少模型训练时间,并在 ImageNet 数据集上达到了与现有方法同等的准确率。
Feb, 2020
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
Pi-NAS 是一种非平凡的超网 - Pi 模型,利用跨路径学习减少不同路径之间特征的一致性移位并采用新颖的平均教师包含负样本克服参数移位和模型冲突,在不监督的情况下搜索可转移架构,并在 ImageNet 和一系列下游任务上展示了其相对于受监督的 NAS 的有效性和普适性。
Aug, 2021
利用神经切向核和输入空间中的线性区域数来排名结构,通过 TE-NAS 框架进行训练 - free 的神经体系结构搜索,使用基于剪枝的 NAS 机制进行灵活且优越的权衡,实现在 CIFAR-10 和 ImageNet 上只花费 0.5 和 4 GPU 小时完成的高质量搜索。
Feb, 2021
本文介绍了一种名为神经架构搜索的领域自适应基本框架 (NASDA),它利用可微分的神经架构搜索来获得领域适应任务的最佳网络架构,并具有神经架构搜索和多核最大平均差异配合的两种新的训练策略,通过实验证明 NASDA 在多个领域适应基准测试中表现出最先进的性能。
Aug, 2020
本文介绍了一种基于神经架构搜索(NAS)的新方法,称为神经架构传递(NAT),该方法可将已训练的超网络集成到在线迁移学习和多目标进化搜索流程中,以快速生成适用于多个应用场景的任务特定定制模型,并在 11 项基准图像分类任务中证明了其有效性。
May, 2020