多目标优化中的平滑切比雪夫标量化
多目标优化的研究中,提出了一种新颖的 Tchebycheff 集标量化方法,用于找到少量代表性解来覆盖大量目标,并进一步发展出具有良好理论保证的平滑 Tchebycheff 集标量化方法,我们通过在不同问题中进行实验研究来证明我们方法的有效性。
May, 2024
本文提出了一种基于随机标量化策略的多目标优化方法,可快速、灵活地从 Pareto 前沿的特定区域中采样,且在多项真实问题和合成问题的实验中显示了良好表现。
May, 2018
深度学习中存在多个冲突的优化准则,本文提出了一种多目标优化算法,使用修改后的加权切比雪夫标量化方法来训练深度神经网络 (DNNs),并通过实验证明了可以在训练过程中自适应地稀疏化模型,而不显著影响其性能。
Aug, 2023
在多任务学习领域的研究中,线性标量化一直是文献中的默认选择。然而,近年来出现了将多任务学习视为多目标优化问题的专用多任务优化器(SMTOs)的兴趣激增,因此是否有 SMTOs 相对于标量化算法的基本优势还是个开放的问题。本文从理论角度重新审视标量化,研究线性多任务学习模型是否能完全探索帕累托前沿,并发现无法实现全面探索,特别是那些在多个任务之间取得平衡权衡的帕累托最优解。实验证实了我们的理论发现,并揭示了 SMTOs 在寻求平衡解决方案方面的潜力。
Aug, 2023
在多目标优化中,考虑到平衡多个目标之间的权衡,解决方案在最优权衡方面被称为帕累托最优;我们研究了解决帕累托集约束优化问题的本地方法,这是一个具有挑战性的问题,因为约束集不仅是隐式定义的,而且通常在目标函数是非凸非光滑的情况下。
Aug, 2023
基于鲁棒优化的多目标问题,介绍了鲁棒化和标量化两种关键操作之间的哲学差异,展示了风险概念在鲁棒多目标优化问题中的集成,并通过两个基于真实数据集的案例研究验证了这些新思路的有效性。
May, 2024
本文提出了一种称为 hypervolume scalarization 的标量化函数,并显示出如何从适当选择的分布中绘制随机标量化以有效地近似 hypervolume indicator metric,进而用此联系说明 Bayesian optimization 具有证明收敛到整个 Pareto frontier 的保证收敛性,同时凸显了标量化框架的一般实用性。
Jun, 2020
本文调查了设计用于带有多个目标函数的顺序决策问题的算法。通过分类法,将对多目标方法的文献研究按适用的设定情况、标量化函数的属性和考虑的策略类型进行分类。总之,文章总结了关键应用和未来研究机会。
Feb, 2014