高效神经结构压缩的可学习嵌入空间
通过对比学习,自动产生与搜索空间参数化独立的神经架构嵌入,使传统黑盒优化算法在神经架构搜索中达到最先进的性能,同时实现了搜索空间间的迁移学习,并探索了在不同训练阶段使用嵌入的潜力。
Feb, 2021
通过对操作和体系结构模块的潜在嵌入与其所出现的架构的实际性能进行对齐,AutoBuild 能够为体系结构模块分配可解释的重要性评分,从而构建高性能的神经网络,无需进行搜索。通过对图像分类、分割和稳定扩散模型的实验,我们展示了 AutoBuild 可以学习构建高质量体系结构或减少搜索空间以关注相关区域,找到超过原始标记的体系结构和搜索基准的体系结构的更好结果。
Mar, 2024
提出了使用序贯模型优化(SMBO)策略的 CNN 网络结构学习方法,与现有的强化学习和进化算法相比更加高效,并在 CIFAR-10 和 ImageNet 数据集上取得了新的最佳分类精度。
Dec, 2017
本文提出了一种基于深度神经网络的自动化设计架构的新框架,该框架使用强化学习代理作为元控制器,通过功能保持变换在当前网络的基础上,尝试增加网络深度或层宽。在 CIFAR-10 和 SVHN 基准数据集上的测试表明,该方法在受限的计算资源下可以设计出具有高竞争力的网络,并在不使用跨层连接的条件下实现了 4.23%的测试误差率。
Jul, 2017
本文通过对现有线性嵌入的文献进行研究后,识别出其中的一些关键问题和误解,并在解决这些问题的基础上,极大地提高了利用线性嵌入进行 Bayesian 优化的效能,包括机器人运动中学习步态策略等方面。
Jan, 2020
本文提出一种迭代学习方法,旨在解决神经架构搜索中的元学习问题。该方法使用参数共享思想,利用代理模型来减少 NAS 运行时间,并在 DARTs 搜索空间和 NAS-Bench-201 上验证了其可行性。此外,作者还提供了理论分析及脱敏研究以进一步深入了解其技术。
Jun, 2019
本论文提出了一种基于连续优化的自动神经架构设计方法,使用编码器、预测器和解码器组成的方法在连续空间中进行梯度优化,通过将较好的嵌入解码成新的架构,最终实现在 CIFAR-10 和 PTB 数据集上高效发现神经网络,并与之前的方法相比实现了较好的效果。
Aug, 2018
本文提出一种可自动设计、训练深度神经网络的框架,通过自动配置架构和超参数进行模型搜索,实现了对复杂搜索空间的高效探索,并展示了随机搜索、蒙特卡罗树搜索和顺序模型优化等多种模型搜索算法在 CIFAR-10 数据集上的比较试验结果。
Apr, 2017
本文提出一种基于贝叶斯优化的神经架构搜索方法,结合 Weisfeiler-Lehman 图内核和高斯过程代理,在高效,可扩展的数据条件下寻找拓扑结构和对神经网络性能的有益特征进行优化和发现。并且在闭合和开放领域的搜索空间中,表现优于现有的 NAS 方法。
Jun, 2020
本研究提出了一种基于强化学习的数据驱动方法来学习神经网络的压缩模式,可以在维持与输入网络相似的性能的同时实现超过 10 倍的模型压缩,并且通过预训练小型‘teacher’网络的策略可以加速大型‘teacher’网络的训练。
Sep, 2017