基于多项式模型的黑盒目标优化
本文提出了一种称为神经过程贝叶斯优化的通用黑盒模型优化算法,通过使用神经过程作为代理模型来提高效率和准确性,在功率系统参数优化问题和七个基准贝叶斯优化问题上的比较均表明该算法的性能优于其他四个基准算法。
Apr, 2021
mlrMBO 是用 R 编写的模型优化(MBO)工具箱,用于单目标和多目标优化,使用替代回归模型逼近给定的目标函数,实现了多点批量建议、可视化等功能,并在广泛的优化器基准方案中进行了对比,表现出最先进的性能。
Mar, 2017
模拟基于贝叶斯优化 (SBBO) 是一种用于优化黑盒函数的新方法,只需要通过基于采样的后验预测分布进行访问。该方法允许在涉及组合空间和离散变量的情况下使用适用于组合空间的概率代理模型。在组合优化的应用中,我们通过使用不同的代理模型在实证上证明了 SBBO 方法的有效性。
Jan, 2024
采用拟贝叶斯优化的框架,通过利用简单的局部回归和随机化先验构建来量化不确定性,并保证收敛性,有效地优化高维度的综合实验、超参数调整和机器人应用的例子中胜过最先进的基准测试。
Oct, 2023
本研究提出了一种混合变量、多目标贝叶斯优化框架 MixMOBO,可高效找到混合变量设计空间的最优帕累托前沿,同时确保多样解,结果表明 MixMOBO 在合成问题上表现良好。
Jan, 2022
本文介绍了一种名为 PBO 的新框架,它扩展了标准 BO 的思想,并通过模型化 Bernoulli - 高斯过程模型来建模每个决斗的赢家概率,从而允许在仅通过两两比较的方式来查询隐函数,并且相对于以往方法,该方法在寻找最大值过程中需要极少的比较。
Apr, 2017
本文旨在解决基于数据驱动的基于模型优化 (MBO) 问题,提出了一种名为保守目标模型 (COMs) 的方法,该方法使用对无法分布的输入提供目标函数的下界的模型进行优化, 结构上,COMs 类似于用于克服对抗性示例的对抗性训练方法,并在广泛的 MBO 问题上优于许多现有方法。
Jul, 2021
提出了一种贝叶斯优化方法,用于在具有昂贵目标函数的多目标优化问题中确定最优解,通过交互方式自适应地估计 DM 的贝叶斯偏好模型,并利用获得的偏好信息进行主动学习,从而有效地在基准函数优化和机器学习模型的超参数优化问题中找到最优解。
Nov, 2023
分子属性优化 (MPO) 问题是困难的,因为它们在离散、非结构化的空间中定义,并且标记过程涉及昂贵的模拟或实验,基本上限制了可用数据量。贝叶斯优化 (BO) 是一种用于高效优化有噪声、黑盒目标函数 (例如,测量的属性值) 的强大且流行的框架,因此对于 MPO 来说是一个潜在的吸引人的框架。为了将 BO 应用于 MPO 问题,必须选择一种结构化的分子表示方法,能够构建概率代理模型。已经开发了许多分子表示方法,然而它们都是高维的,这在 BO 过程中引入了重要挑战 —— 主要是由于维度的诅咒使得很难对合适的代理模型类定义和执行推理。本研究中,我们展示了这些方法有被 “困住” 的倾向,我们假设产生这种现象是因为从编码空间到属性值的映射不一定由高斯过程很好地建模。我们提倡一种替代方法,将数值分子描述符与稀疏的轴对齐高斯过程模型结合起来,能够快速识别对模拟未知属性函数最相关的稀疏子空间。我们证明了我们提出的方法在各种基准测试和实际问题中显著优于现有的 MPO 方法。具体地,我们展示了我们的方法可以在 100 个或更少的昂贵查询中在超过 100,000 种可选分子中经常找到近乎最优的分子。
Jan, 2024