指数收敛的贝叶斯优化
本文提出了一种新的贝叶斯优化算法,它利用导数信息来降低目标函数评估的数量,可以适用于包括逐步和批量形式在内的嘈杂和不完整的导数信息,并且可以自动选择保留方向导数以减少推论的计算成本,该算法在众多优化过程中表现出最新的状态性能。
Mar, 2017
本文介绍了贝叶斯优化的基本工作原理,包括高斯过程回归和三种常见的采集函数;讨论了高级技术,包括并行运行多个函数评估,多保真度和多信息源优化,多任务的贝叶斯优化,并探讨贝叶斯优化软件和未来研究方向。
Jul, 2018
通过使用多输出高斯过程模型和预期改善在经过修改的非高斯正则先验上进行采样(EI)的有效最大化,本研究提出了一种新方法来优化复合目标函数,该复合目标函数是将一个高昂的黑盒子类函数h(x)的向量输出g(h(x))函数与一个廉价函数g(x)组合而成。实验结果显示,该方法可以减少简单遗憾值数个数量级,比标准贝叶斯优化方法显着优越。
Jun, 2019
该论文研究贝叶斯学习中常见的最大后验估计和后验分布采样的计算任务,证明在非凸情况下后验分布采样有时比优化更快,并展示两者在计算复杂性上的不可比较性,呈现出计算复杂度的急剧相变。
Nov, 2019
本文从贝叶斯优化和基于树的乐观优化结合的角度出发,探讨了在无噪声环境中提高后悔度边界的可能性,并提出了BOO算法,该算法在假设目标函数从具有Matern内核且平滑度参数ν>4+D/2的高斯过程中提取样本的情况下,可以实现指数级后悔度边界。实验结果表明,BOO算法在优化各种合成函数和机器学习超参数调整任务方面,均优于基线算法。
May, 2021
通过验证有限数量的后验分布绘制,将规定的停止规则替换为$(\epsilon, \delta)$准则,我们证明了贝叶斯优化在有限时间内停止并返回满足$(\epsilon, \delta)$准则的点。
Feb, 2024
本文考虑了具有非光滑目标函数和具有非光滑潜势(负对数密度)的凸优化和对数凹取样问题,并研究了两个特定的设置,其中凸目标/潜势函数可以是半光滑的,也可以是复合形式,作为半光滑分量的有限和。为了克服非光滑性带来的挑战,我们的算法在优化和取样上使用了两种强大的近端框架:优化的近端点框架和使用增广分布上的Gibbs取样的交替取样框架(ASF)。优化和取样算法的关键组成部分是通过正则化割平面法对近端映射的高效实现。我们在半光滑和复合的两种情况下建立了近端映射的迭代复杂性。此外,我们还提出了一种适应性近端捆绑法用于非光滑优化。该方法是通用的,因为它不需要任何问题参数作为输入。此外,我们开发了一个类似于优化中近端映射的近端取样预测器,并使用一种新颖的技术(改进的高斯积分)建立了其复杂性。最后,我们将这个近端取样预测器和ASF结合起来,得到了一个在半光滑和复合设置中具有非渐近复杂性界限的马尔可夫链蒙特卡洛方法用于取样。
Apr, 2024
本文解决了传统随机编程中对非凸问题和昂贵黑箱优化方法的不足。作者采用贝叶斯优化,提出了一种基于知识梯度的获取函数,以联动优化两阶段变量,并证明了其渐近一致性。实验证明,该方法在有效性上优于标准的两步基准方案,展示了在不同问题维度和尺度下的优势。
Aug, 2024