本文提出了一种基于学习的方法,将分解式多目标优化算法 (MOEA/D) 从有限种群推广到模型,以近似整个 Pareto 集,为决策者提供灵活的决策,并展示实验结果。
Oct, 2022
本文介绍了一种基于多目标贝叶斯优化 (MOBO) 的框架,通过提出 CDF 指标和 BOtied 采集函数,可以有效地解决多目标目标空间的优化问题,并在实验中得到良好的效果。
Jun, 2023
提出了一种贝叶斯优化方法,用于在具有昂贵目标函数的多目标优化问题中确定最优解,通过交互方式自适应地估计 DM 的贝叶斯偏好模型,并利用获得的偏好信息进行主动学习,从而有效地在基准函数优化和机器学习模型的超参数优化问题中找到最优解。
Nov, 2023
本研究提出了一种混合变量、多目标贝叶斯优化框架 MixMOBO,可高效找到混合变量设计空间的最优帕累托前沿,同时确保多样解,结果表明 MixMOBO 在合成问题上表现良好。
Jan, 2022
提出使用扩散模型(EmoDM)解决演化多目标搜索的方法,通过学习先前解决的演化优化任务的噪声分布,在不经历进一步演化搜索的情况下,通过逆扩散生成一组非支配解,从而显著减少了所需的函数评估次数,并引入互信息熵注意机制来提高 EmoDM 的可伸缩性,实验证明 EmoDM 在解决具有多达 5000 个决策变量的 MOP 时在搜索性能和计算效率方面与最先进的演化算法相媲美,且 EmoDM 的预训练模型在未知问题上具有很好的泛化能力,展示了其作为通用高效 MOP 求解器的潜力。
Jan, 2024
在这项工作中,我们提出了一种新颖的可控 Pareto 集学习 (Co-PSL) 方法,旨在解决现有无导数 PSL 方法在昂贵的黑盒多目标优化问题中不稳定和低效的问题,通过两个阶段的功能:(1) 使用贝叶斯优化进行预热,以获得高质量的高斯过程先验;(2) 可控 Pareto 集学习,准确获得从偏好到相应 Pareto 解的参数映射,以实现对冲突目标之间的实时权衡控制。综合合成和现实世界的多目标优化问题的性能展示了 Co-PSL 的有效性。
我们提出了一种基于贝叶斯优化的新方法,称为 Pareto front-Diverse Batch Multi-Objective BO (PDBO),用于解决多目标优化问题,其中我们可以评估一批输入并发现高质量和多样化的 Pareto 前沿。
Jun, 2024
本文提出一种名为 PESMOC 的基于信息的策略,用于同时优化多个昂贵的黑盒函数,并考虑多个限制条件,该策略可用于解决多种优化问题。实验结果表明,相对于随机搜索策略,PESMOC 能够在较少的评估次数下提供更好的建议。
Sep, 2016
通过专家混合(MoE)模型融合的实用且可扩展的方法,本研究旨在有效学习大型神经网络的 Pareto 集,从而捕捉多个目标之间的权衡关系和大致近似整个 Pareto 集,并在低内存使用量的情况下提供可扩展性。
本研究提出了一种新颖的不确定性感知搜索框架(USeMO),使用代理模型的多目标黑盒优化解决方案来选择评估输入序列,通过减少函数评估的数量,近似真正的 Pareto 集。我们在多个合成和六个不同的真实基准问题上的实验表明,USeMO 总是优于现有算法。
Apr, 2022