基于轨迹的多目标模型重训练超参数优化
本文介绍了一种使用 Tree-structured Parzen Estimators 采样策略和训练带异质噪声的 Gaussian Process Regression 元模型的多目标超参数优化方法,具有更好的超体积指标表现,并考虑到模型评估的不确定性。
Sep, 2022
本文提出了一种基于贝叶斯优化的方法,该方法可以利用学习算法的迭代结构来有效地调整超参数。在深度强化学习和卷积神经网络训练中,我们的算法通过选择最佳超参数的方式,以最小时间成本实现了调优。
Sep, 2019
机器学习模型的超参数优化是一个具有多目标的挑战性问题,本研究提出了一种多目标贝叶斯优化算法,通过统一目标规范化和随机化权重在标量化中解决了不同目标尺度的问题,并通过限制目标来提高算法效率,最后通过并行化加速了优化过程。
Sep, 2023
本文探讨了使用多目标超参数优化方法,优化三种知名主题模型时需要考虑到主题连贯性和多样性这两种冲突的目标,并且发现选择超参数时,训练语料库的特征至关重要,表明可以在数据集间传输最优的超参数配置。
Feb, 2022
本文研究了基于成本敏感的多保真贝叶斯优化算法用于高效的超参数优化问题,引入了用户预定义的效用函数来描述成本和性能之间的权衡,并提出了一种新的获取函数和停止准则以动态选择每个步骤的最佳配置,并最大程度地提高未来效用,同时自动终止优化过程,通过转移学习提高学习曲线外推方法的样本效率,能够捕捉不同配置之间的相关性,为多保真贝叶斯优化提供合理的代理函数,并在各种学习曲线数据集上验证算法,优于现有基线方法,实现更好的成本和性能的权衡。
May, 2024
本文提出了深度度量学习用于探寻相似的数据集来作为输入神经网络的初始超参数,并通过 Bayesian 优化方法减少了超参数搜索的时间和计算量。
Oct, 2017
本文介绍了一种新的算法,通过任务相似性来加速多目标超参数优化 (MO-TPE)。研究表明该算法可在表格 HPO 基准测试中加速 MO-TPE, 同时获得了 AutoML 2022 比赛的第一名。
Dec, 2022