资源受限的神经网络结构搜索:子模性假设是否有帮助?
本文研究深度学习模型的架构对于模型测试精度和计算时间的影响,提出了一种基于子集选择问题的架构优化方法,通过实验验证了该方法的有效性并进行了架构演化的分析和设计建议。
Sep, 2016
本文提出了一种基于不可微神经网络结构搜索的有原则方法,用于自动定义多任务神经网络编码阶段的分支结构。该方法通过引入资源感知损失来使模型尺寸动态地可控,最终在有限资源预算内找到高性能分支结构。
Aug, 2020
本文提出了一种新颖的基于预测理论的微分神经结构搜索优化方法,其优化标准很适合于架构选择,即最小化次优操作选择所产生的遗憾。我们的方法动态地清除劣质结构并增强优秀结构,它获得了最优最坏情况遗憾的较佳性能,并建议使用基于反向梯度携带信息量的多个学习速率。该算法在多个图像分类数据集上均获得了强大的性能,具体而言,在移动设置下 CIFAR-10 达到 1.6%的错误率,ImageNet 达到 24%的错误率,并在另外三个数据集上实现了最新的研究成果。
Jun, 2019
提出了一种基于多目标奖励函数的神经网络架构搜索框架 MONAS,可以用来优化神经网络预测准确率,同时满足功耗等其他重要目标。实验结果表明,与现有技术相比,使用 MONAS 找到的模型可以在计算机视觉应用中获得相当或更好的分类准确性,同时满足功耗等其他重要目标。
Jun, 2018
本文提出了一个自动且高效地从预训练的超网络中找到针对不同性能度量和硬件配置进行优化的子网络的综合系统,在多个领域中与现有最先进的超网络训练方法无缝配合,展示了如何将新颖的搜索策略与演化算法相结合,加速 ResNet50、MobileNetV3 和 Transformer 的搜索过程,并展示了比最先进的贝叶斯优化 WeakNAS 方法快 8 倍的搜索结果。
Feb, 2022
通过引入 HardCoRe-NAS 方法,我们精确地满足了各种资源约束,并在不需要任何调整的情况下生成了具有 state-of-the-art 性能的架构。
Feb, 2021
本文提出了一种基于深度神经网络的自动化设计架构的新框架,该框架使用强化学习代理作为元控制器,通过功能保持变换在当前网络的基础上,尝试增加网络深度或层宽。在 CIFAR-10 和 SVHN 基准数据集上的测试表明,该方法在受限的计算资源下可以设计出具有高竞争力的网络,并在不使用跨层连接的条件下实现了 4.23%的测试误差率。
Jul, 2017
本文提出了资源限制下的可微架构搜索方法 (RC-DARTS),以较小的模型尺寸和计算复杂度实现与最先进方法相当的性能,并通过对 Cifar10 和 ImageNet 数据集的实验进行了验证。
Dec, 2019
该论文介绍了使用强化学习和一次性训练为指导原则的自动神经架构搜索框架 DQNAS,用于生成具有优越性能且具有最小可扩展性问题的神经网络架构。该框架可以减少设计卷积神经网络的时间和测试成本。
Jan, 2023
本文介绍了一种基于可微分的连续松弛方法来应对体系结构搜索的可扩展性挑战,该方法可在 CIFAR-10、ImageNet、Penn Treebank 和 WikiText-2 等数据集中快速搜索高性能的卷积体系结构和循环体系结构。
Jun, 2018