渐进式神经架构搜索
本文提出了一种称为 Efficient progressive neural architecture search (EPNAS) 的方法,将全新的序贯模型优化方法与权重共享结合,成功地提高了神经结构搜索的效率。
Aug, 2018
本论文提出了一种基于连续优化的自动神经架构设计方法,使用编码器、预测器和解码器组成的方法在连续空间中进行梯度优化,通过将较好的嵌入解码成新的架构,最终实现在 CIFAR-10 和 PTB 数据集上高效发现神经网络,并与之前的方法相比实现了较好的效果。
Aug, 2018
本研究旨在调查使用 SMBO 策略优化 DCN 网络结构的可能性,通过一组随机初始架构生成新架构,以实现在给定数据集上训练后表现良好的 DCN 架构。 利用该策略,本研究找到了与目前最先进技术结果相当的多种 DCN 架构方案。
Jan, 2015
本论文提出一种高效的连续演化方法用于搜索神经网络,该方法在优化神经网络的同时,使用优化后的神经网络在下一次的演化中,大大地加速了网络生成的效率。实验表明,该方法产生的神经网络在 mobile 设置下,参数数量在 3.7M 到 5.1M 之间不等,在 ImageNet 数据集上的表现超过了目前已有的先进方法。
Sep, 2019
我们使用神经架构搜索(NAS)方法,通过贝叶斯优化构建卷积神经网络(CNN)模型,以灵活适配的深度增强内存计算(IMC)架构上的多样机器学习(ML)任务的效率。通过在超过 6.4 亿网络配置的庞大搜索空间中探索贝叶斯搜索算法,我们验证了我们的 NAS 方法在 IMC 架构部署中取得高准确性、低延迟和能量消耗的平衡解的有效性,涵盖了三个不同的图像分类数据集。
Jun, 2024
本文介绍了一种基于层次遗传表征和复杂拓扑的新颖神经体系结构搜索方法,该方法能够高效地发现优于许多手动设计模型的分类器,同时该方法通过随机搜索得到了更高的准确度并将搜索时间缩短至 1 小时。
Nov, 2017
本文提出了一种基于深度神经网络的自动化设计架构的新框架,该框架使用强化学习代理作为元控制器,通过功能保持变换在当前网络的基础上,尝试增加网络深度或层宽。在 CIFAR-10 和 SVHN 基准数据集上的测试表明,该方法在受限的计算资源下可以设计出具有高竞争力的网络,并在不使用跨层连接的条件下实现了 4.23%的测试误差率。
Jul, 2017
本论文旨在将神经架构搜索的问题从单路径和多路径搜索扩大到自动混合路径搜索。我们提出了一种新的连续架构表示方法,利用稀疏超网络和稀疏性约束来实现自动混合路径搜索。同时,我们采用了分层加速的近端梯度算法来优化所提出的稀疏超网络,并在卷积神经网络和循环神经网络搜索中进行了广泛的实验,证明了该方法能够搜索到紧凑、通用和强大的神经结构。
Jul, 2020