May, 2024

成本敏感的多层次贝叶斯优化及学习曲线外推的迁移

TL;DR本文研究了基于成本敏感的多保真贝叶斯优化算法用于高效的超参数优化问题,引入了用户预定义的效用函数来描述成本和性能之间的权衡,并提出了一种新的获取函数和停止准则以动态选择每个步骤的最佳配置,并最大程度地提高未来效用,同时自动终止优化过程,通过转移学习提高学习曲线外推方法的样本效率,能够捕捉不同配置之间的相关性,为多保真贝叶斯优化提供合理的代理函数,并在各种学习曲线数据集上验证算法,优于现有基线方法,实现更好的成本和性能的权衡。