Apr, 2024

通过概率上升实现通用批次贝叶斯优化的正交方法

TL;DR在贝叶斯优化中并行化是一个常见的策略,但面临几个挑战:在获取函数和内核选择方面需要灵活性,同时处理离散和连续变量的灵活性,模型错误指定以及快速大规模并行化。为了解决这些挑战,我们介绍了一个灵活和模块化的基于概率提升和内核数值积分的批量贝叶斯优化框架,称为 SOBER,我们将其作为基于 GPyTorch/BoTorch 的 Python 库进行展示。我们的框架提供以下独特的好处:(1) 统一方法在下游任务中具有多功能性。(2) 无梯度采样器,不需要获取函数的梯度,提供领域不可知的采样 (例如,离散和混合变量,非欧几里得空间)。(3) 领域先验分布的灵活性。(4) 自适应批量大小 (自主确定最佳批量大小)。(5) 鲁棒性对模型错指定的再现核希尔伯特空间。(6) 自然的停止准则。