层次协作超参数调整
该研究论文提出了一种全自动、协作的基于代理机制的方法,用于选择分布式组织的机器学习算法并同时调整其超参数,以实现扩展性、灵活性和鲁棒性。通过理论评估、形式验证和分析研究,证明了该技术的正确性、资源利用和计算效率。在对 24 种算法和 9 个数据集进行实验的基础上,提供了具体示例来展示所提出的方法在不同算法选项和数据集上的有效适应性和性能表现。
Sep, 2023
本文提出了一种基于代理的协作技术,以找到任意一组超参数(或决策变量)的近似最优值,其设计了分布式搜索操作的分层代理架构,使用基于自适应宽度的随机采样技术进行合作搜索,并在机器学习和全局函数优化应用中,通过与两种常用随机调整策略的比较得出,该模型在多维度和设备资源有限的情况下优于其他方法。
Mar, 2023
Tune 是一个机器学习模型选择和训练的统一框架,提供训练脚本和搜索算法之间的窄腰接口,适合于多种超参数搜索算法、可以方便地扩展到大型集群并简化算法实现。
Jul, 2018
本文提出 HyperTuner 以实现跨层次多目标超参数自动调整,首先通过其 MOPIR 算法进行多目标参数重要性排名,然后利用 ADUMBO 算法找到帕累托最优配置集,在每个迭代中通过最大化一个新的设计良好的度量选择最有前途的配置。
Apr, 2023
本文提出了一种基于贝叶斯优化的方法,该方法可以利用学习算法的迭代结构来有效地调整超参数。在深度强化学习和卷积神经网络训练中,我们的算法通过选择最佳超参数的方式,以最小时间成本实现了调优。
Sep, 2019
本篇论文研究了常见机器学习模型的超参数优化,介绍了一些最先进的优化技术,并讨论了如何将它们应用于机器学习算法。同时,也提供了许多用于超参数优化问题的库和框架,并在基准数据集上进行了实验,以比较不同优化方法的性能,提供超参数优化的实际例子。该综述论文将帮助工业用户、数据分析师和研究人员通过有效地识别适当的超参数配置来更好地开发机器学习模型。
Jul, 2020
该研究探讨了一种利用神经网络将模型的权重作为超参数的函数,实现对超参数和模型权重进行联合随机优化的方法,相较于传统的超参数优化方法,本方法在调整上千个超参数方面更加有效。
Feb, 2018
本论文旨在提高深度强化学习的可重复性,通过比较多个 HPO 工具,展示了 HPO 方法通常具有更高的性能和更低的计算开销,并提出采用从 AutoML 中建立的最佳实践,以及在广泛的搜索空间内进行原则性的 HPO。最终,论文推荐了一套适用于 RL 社区的最佳实践,以实现更强的实证结果、更少的计算成本、更好的可重复性和更快的进展。
Jun, 2023