贝叶斯优化的迁移学习:综述
本文介绍了贝叶斯优化的基本工作原理,包括高斯过程回归和三种常见的采集函数;讨论了高级技术,包括并行运行多个函数评估,多保真度和多信息源优化,多任务的贝叶斯优化,并探讨贝叶斯优化软件和未来研究方向。
Jul, 2018
本文介绍了贝叶斯优化的方法,通过建模替代函数和最大化收购功能来确定下一步查询的位置,同时考虑三种流行的收购功能的局部优化器的性能分析,并引入允许本地优化方法从多个不同的起始条件开始的分析,数值实验证实了我们的理论分析的有效性。
Jan, 2019
本文提出一种自动设计BO搜索空间的方法,通过以前黑盒函数的评估结果,学习搜索空间几何形态,使传统的BO方法具有迁移学习属性,加速了各种黑盒优化问题的优化过程,结合随机搜索实现了无参数、易于实现、鲁棒的超参数优化策略。
Sep, 2019
本论文提出了一种自动化的基于先前任务调优历史知识的方法,通过传递学习能力将现有的贝叶斯优化方法能够具有迁移学习的能力。同时,作者通过精简搜索空间设计的方法有效地提高了基于机器学习和深度学习,包括神经架构搜索等任务的效能,并在各种基准测试中优于现有技术。
Jun, 2022
利用概率重参数化方法(PR)在混合或高基数离散搜索空间中最大化收购功能(AF),可显著提高贝叶斯优化(BO)的优化表现,并且能够很自然地扩展到具有多个目标和黑盒约束的设置。
Oct, 2022
本论文介绍了一种在异构领域中进行模型预训练的方法MPHD,该方法使用神经网络映射将领域特定上下文映射到层级高斯过程的规范,以便与BO集成以在异构搜索空间中进行知识转移,并通过理论和实证结果证明了MPHD的有效性和优越的黑盒函数优化性能。
Sep, 2023
介绍了一种新颖的信息论获取函数,通过实施基于粒子变分贝叶斯更新的共享任务间潜在变量,平衡了对当前任务信息获取需求与收集可迁移到未来任务的信息目标,实验证明,该策略能够显著提高优化效率。
Mar, 2024
本文研究了基于成本敏感的多保真贝叶斯优化算法用于高效的超参数优化问题,引入了用户预定义的效用函数来描述成本和性能之间的权衡,并提出了一种新的获取函数和停止准则以动态选择每个步骤的最佳配置,并最大程度地提高未来效用,同时自动终止优化过程,通过转移学习提高学习曲线外推方法的样本效率,能够捕捉不同配置之间的相关性,为多保真贝叶斯优化提供合理的代理函数,并在各种学习曲线数据集上验证算法,优于现有基线方法,实现更好的成本和性能的权衡。
May, 2024
本研究解决了在极少函数评估下贝叶斯优化的应用问题,尤其是在异构搜索空间中信息转移的需求。提出的两种新方法通过高斯过程模型和条件核进行有效信息转移,并将缺失参数视为超参数进行联合推断。结果表明,这两种方法在多个基准问题上表现优异,具有重要的实用价值。
Sep, 2024