多目标问题中通过偏好学习的交互式超参数优化
提出了一种使用动态损失函数来进行多目标训练神经网络以逼近 Pareto 前沿的新方法,在三个多目标问题上的实验表明,本方法无需预先指定权衡向量即可以返回分布在不同权衡方案上的输出,并且与现有技术相比具有更多的优势,尤其是对于非对称 Pareto 前沿。
Feb, 2021
提出了一个新的基准HPO-B,该基准从OpenML存储库中组装和预处理,由176个搜索空间和196个数据集组成,旨在解决机器学习中的超参数优化问题,并使黑盒HPO方法在公平和快速的比较中具有可重复性。
Jun, 2021
本文介绍了自动超参数优化方法,并回顾了包括格子搜索、随机搜索、进化算法、贝叶斯优化、Hyperband和竞速等在内的重要超参数优化方法及其实际运用中要注意的事项,并提供了具体实现方案及软件包信息,使得机器学习算法的配置能力更为高效地进行。
Jul, 2021
本文介绍了一种使用Tree-structured Parzen Estimators采样策略和训练带异质噪声的Gaussian Process Regression元模型的多目标超参数优化方法,具有更好的超体积指标表现,并考虑到模型评估的不确定性。
Sep, 2022
提出 PHN-HVI 框架,利用超网络从多样化的权衡偏好生成多个解并最大化这些解定义的超体积指标以提高 Pareto 前沿的质量,在多个 MOO 机器学习任务上实验结果表明,与基线方法相比,该框架显著提高了产生权衡 Pareto 前沿的性能。
Dec, 2022
本文介绍了一种新的算法,通过任务相似性来加速多目标超参数优化(MO-TPE)。研究表明该算法可在表格HPO基准测试中加速MO-TPE,同时获得了AutoML 2022比赛的第一名。
Dec, 2022
机器学习模型的超参数优化是一个具有多目标的挑战性问题,本研究提出了一种多目标贝叶斯优化算法,通过统一目标规范化和随机化权重在标量化中解决了不同目标尺度的问题,并通过限制目标来提高算法效率,最后通过并行化加速了优化过程。
Sep, 2023
提出了一种贝叶斯优化方法,用于在具有昂贵目标函数的多目标优化问题中确定最优解,通过交互方式自适应地估计DM的贝叶斯偏好模型,并利用获得的偏好信息进行主动学习,从而有效地在基准函数优化和机器学习模型的超参数优化问题中找到最优解。
Nov, 2023
我们提出了第一种方法,用于评估多目标超参数优化背景下超参数的重要性。我们的方法利用基于代理模型的超参数重要性度量,即fANOVA和消融路径,以便提供关于超参数对优化目标的影响的见解。通过在不同目标与准确性相配对的广泛实证评估,即时间、人口统计学平衡和能量消耗,在多样化的基准数据集上展示了我们提出的方法的有效性和鲁棒性。我们的发现不仅为MOO任务中的超参数调整提供了有价值的指导,也有助于推进对复杂优化情景中超参数重要性的理解。
May, 2024
本研究解决了多目标优化中同时优化所有目标的困难,提出一种优化偏好点的方法,实现帕累托前沿的均匀分布。通过双层优化问题的形式,我们的研究显示了该方法在复杂黑箱多目标优化问题中的有效性,推动了设计空间的灵活探索。
Aug, 2024