该研究论文介绍基于贝叶斯优化的迁移学习方法,从初始点设计、搜索空间设计、代理模型和获取函数等四个方面总结其方法论和技术细节。同时,论文彰显了该方法在广泛应用中的优点,并提出了未来的研究方向。
Feb, 2023
本文提出一种自动设计 BO 搜索空间的方法,通过以前黑盒函数的评估结果,学习搜索空间几何形态,使传统的 BO 方法具有迁移学习属性,加速了各种黑盒优化问题的优化过程,结合随机搜索实现了无参数、易于实现、鲁棒的超参数优化策略。
Sep, 2019
本论文提出了一种自动化的基于先前任务调优历史知识的方法,通过传递学习能力将现有的贝叶斯优化方法能够具有迁移学习的能力。同时,作者通过精简搜索空间设计的方法有效地提高了基于机器学习和深度学习,包括神经架构搜索等任务的效能,并在各种基准测试中优于现有技术。
Jun, 2022
本研究基于贝叶斯优化框架,建立高斯过程模型,通过前期实验获得的信息来优化机器学习算法的超参数调整,作者提出可以超过经验人类调参表现的自动算法,并介绍收集实验信息、利用多核心并行实验等新算法。
Jun, 2012
本文提出了一种基于贝叶斯优化的机器学习集成方法,通过优化固定大小组成的集成分类器的每个分类器的超参数配置,考虑了与其他模型的交互作用来评估性能,表明该方法比最佳单个模型和标准贝叶斯优化生成的模型的贪心集成构造更好。
May, 2016
本文提出了一种基于贝叶斯优化的方法,该方法可以利用学习算法的迭代结构来有效地调整超参数。在深度强化学习和卷积神经网络训练中,我们的算法通过选择最佳超参数的方式,以最小时间成本实现了调优。
提出了一种基于生成模型的贝叶斯优化方法,通过学习验证误差关于训练集大小的函数,并在小的子集上进行预先配置的探索,从而加速超参数优化,并且可以自动平衡全局最优解的信息增益与计算成本。实验结果表明,该方法比现有的另外两种贝叶斯优化方法和一种最近提出的 Hyperband 策略都要更快地找到高质量解。
使用转移学习方法的贝叶斯优化,不再需要任务间有相似最优输入的强假设,而是只需假设优化空间的形状相似,通过学习高斯过程代理模型的超参数先验,能更好地逼近潜在函数,特别是对于少量函数评估。我们通过使用合成数据和最近的一个空气污染优化问题作为基准,验证了学到的先验模型,并与多种转移学习方法进行了比较,结果显示 PLeBO 和先验转移方法在较少的评估次数中找到了好的输入。
Nov, 2023
本文提出一种基于迁移学习的自动超参数优化算法:Transfer Neural Processes (TNP),将历史优化实验的知识转移应用到当前优化任务中,该算法在广泛的 OpenML 数据集和三个计算机视觉数据集上实现了前沿性能。
本文研究贝叶斯优化在超参数优化中的应用,发现优化 BO 的超参数可以提高 BO 方法在各种基准测试中的的表现,优化后的 BO 调参效果在其他相似或不同领域的问题上有良好的推广性,并指出了最重要的 BO 超参数。
Aug, 2019