黑盒函数的逐步优化
本文提出了一种算法来优化连续超参数,该方法可以在模型参数完全收敛之前更新超参数,具有全局收敛的充分条件,并在 L2 正则化逻辑回归和核岭回归的正则化常数估计上验证了实证表现。
Feb, 2016
本文提出了一种基于代理的协作技术,以找到任意一组超参数(或决策变量)的近似最优值,其设计了分布式搜索操作的分层代理架构,使用基于自适应宽度的随机采样技术进行合作搜索,并在机器学习和全局函数优化应用中,通过与两种常用随机调整策略的比较得出,该模型在多维度和设备资源有限的情况下优于其他方法。
Mar, 2023
本研究基于贝叶斯优化框架,建立高斯过程模型,通过前期实验获得的信息来优化机器学习算法的超参数调整,作者提出可以超过经验人类调参表现的自动算法,并介绍收集实验信息、利用多核心并行实验等新算法。
Jun, 2012
使用梯度优化算法,利用隐函数定理及反向黑塞矩阵逼近来提高超参数优化的效率,成功应用于训练超大规模网络架构,例如数据增强网络,整个过程只比标准训练多花费少量内存与计算资源。
Nov, 2019
本文介绍了 NeurIPS 2020 的黑盒优化挑战赛结果和洞见,强调了评估无导数优化器以调整机器学习模型的超参数的重要性,并在真实数据集上基于多个标准机器学习模型的调整性能进行了排名。
Apr, 2021
介绍了一种名为 DyHPO 的灰箱超参数优化方法,它能够学习动态决定下一个尝试哪个配置和预算。通过 50 个数据集和各种神经网络的大规模实验,我们证明了 DyHPO 比最先进的超参数优化基线具有显着的优越性。
Feb, 2022
本文提出了一种基于贝叶斯优化的方法,该方法可以利用学习算法的迭代结构来有效地调整超参数。在深度强化学习和卷积神经网络训练中,我们的算法通过选择最佳超参数的方式,以最小时间成本实现了调优。
Sep, 2019
本文提出了一种灰盒优化算法,利用 Bayesian 优化框架和 optism-driven 算法,在常用 Kernel 函数下表现出收敛速度优异的特点,这个算法在常规黑盒算法之上大幅提高了全局最优解求解的速度。
Jun, 2023
本文提出了一种处理高维黑盒函数优化挑战的方法 —— 通过 (1) 推断函数的潜在加法结构以进行更加高效和有效的贝叶斯优化,(2) 并行进行多次评估以减少方法所需的迭代次数。通过 Gibbs 抽样学习潜在结构,并使用定向点过程构建批量查询。实验结果证明,该方法优于现有技术。
Mar, 2017