关键词sequential model-based optimization
搜索结果 - 6
- POPNASv3: 一种用于图像和时间序列分类的 Pareto-Optimal 神经架构搜索解决方案
本文介绍了 Pareto-Optimal Progressive Neural Architecture Search (POPNASv3) 的第三个版本,这是一个新的顺序模型优化 NAS 算法,旨在针对不同的硬件环境和多个分类任务。我们的 - 可传递的神经过程用于超参数优化
本文提出一种基于迁移学习的自动超参数优化算法:Transfer Neural Processes (TNP),将历史优化实验的知识转移应用到当前优化任务中,该算法在广泛的 OpenML 数据集和三个计算机视觉数据集上实现了前沿性能。
- 高效渐进式神经架构搜索
本文提出了一种称为 Efficient progressive neural architecture search (EPNAS) 的方法,将全新的序贯模型优化方法与权重共享结合,成功地提高了神经结构搜索的效率。
- ECCV渐进式神经架构搜索
提出了使用序贯模型优化(SMBO)策略的 CNN 网络结构学习方法,与现有的强化学习和进化算法相比更加高效,并在 CIFAR-10 和 ImageNet 数据集上取得了新的最佳分类精度。
- 用于目标识别的深度卷积网络的超参数优化
本研究旨在调查使用 SMBO 策略优化 DCN 网络结构的可能性,通过一组随机初始架构生成新架构,以实现在给定数据集上训练后表现良好的 DCN 架构。 利用该策略,本研究找到了与目前最先进技术结果相当的多种 DCN 架构方案。
- 顺序模型基于集成优化
本文提出了一种新的基于 SMBO 和贝叶斯学习的自动构建学习模型合集的方法,实验证明其优于传统的 SMBO 方法在回归以及分类数据集上的表现。