用于目标识别的深度卷积网络的超参数优化
提出了使用序贯模型优化(SMBO)策略的 CNN 网络结构学习方法,与现有的强化学习和进化算法相比更加高效,并在 CIFAR-10 和 ImageNet 数据集上取得了新的最佳分类精度。
Dec, 2017
本文提出一种新的基于强化学习的方法来优化在小型设备上部署的深度神经网络,以便在保持预测精度的同时最小化内存占用和计算复杂度。实验结果表明,该方法在不同数据集和架构上均优于现有的多目标贝叶斯优化方法。
May, 2023
本研究提出基于卷积神经网络的物体检测系统,使用基于贝叶斯优化的搜索算法和结构化 loss 进行物体定位,实验证明两种方法的结合优于先前的最先进方法。
Apr, 2015
本文提出一种基于 Bayesian 图神经网络作为新的代理函数的方法,能够自动提取深度神经架构中的特征,并使用学到的特征来拟合和表征黑箱目标及其不确定性,将其用于应对深度神经架构搜索的挑战性任务,实验结果表明该方法在基准任务上明显优于比较方法。
May, 2019
本文提出了一种称为 Efficient progressive neural architecture search (EPNAS) 的方法,将全新的序贯模型优化方法与权重共享结合,成功地提高了神经结构搜索的效率。
Aug, 2018
使用卷积神经网络的数据驱动语义方法,提出一种提高目标建议排名的新框架 “DeepBox”,可以显著提高目标检测平均准确度,并在保持较高召回率的同时大幅降低计算时间。
May, 2015
本文提出一种可自动设计、训练深度神经网络的框架,通过自动配置架构和超参数进行模型搜索,实现了对复杂搜索空间的高效探索,并展示了随机搜索、蒙特卡罗树搜索和顺序模型优化等多种模型搜索算法在 CIFAR-10 数据集上的比较试验结果。
Apr, 2017
本文提出了一个深度学习框架,基于具有随机先验的 bootstrap 整合的神经体系结构,用于贝叶斯优化和连续决策。该框架能够在高维输出的情况下逼近设计变量和感兴趣数量之间的函数关系,测试表明该方法在优化轮毂叶片的形状等高度复杂的任务中具有明显的优越性。
Feb, 2023
本文提出一种基于迁移学习的自动超参数优化算法:Transfer Neural Processes (TNP),将历史优化实验的知识转移应用到当前优化任务中,该算法在广泛的 OpenML 数据集和三个计算机视觉数据集上实现了前沿性能。
Sep, 2019