模型搜索科学化
本篇论文研究了常见机器学习模型的超参数优化,介绍了一些最先进的优化技术,并讨论了如何将它们应用于机器学习算法。同时,也提供了许多用于超参数优化问题的库和框架,并在基准数据集上进行了实验,以比较不同优化方法的性能,提供超参数优化的实际例子。该综述论文将帮助工业用户、数据分析师和研究人员通过有效地识别适当的超参数配置来更好地开发机器学习模型。
Jul, 2020
本文提出了深度度量学习用于探寻相似的数据集来作为输入神经网络的初始超参数,并通过 Bayesian 优化方法减少了超参数搜索的时间和计算量。
Oct, 2017
本研究从统计学角度 formalize 了超参数调整问题,提出了基于数据的默认值和量化超参数可调性的一般性措施,并在 OpenML 平台上基于 38 个数据集和 6 个常见机器学习算法进行了大规模基准测试。我们的研究结果提供了超参数默认值,并使用户能够决定是否值得进行耗时的调整策略,专注于最重要的超参数并选择合适的超参数空间进行调整。
Feb, 2018
本研究基于贝叶斯优化框架,建立高斯过程模型,通过前期实验获得的信息来优化机器学习算法的超参数调整,作者提出可以超过经验人类调参表现的自动算法,并介绍收集实验信息、利用多核心并行实验等新算法。
Jun, 2012
本文演示了如何利用多智能体系统开发一个分布式技术,用于确定任意集合的超参数的近似最优值,并在机器学习和全局函数优化应用中进行了研究。研究表明,在更高的维度下,所提出的模型在分类误差和函数评估方面都优于其底层随机调优策略。
May, 2022
本文提出了一种利用标准频率回归模型通过网络架构、超参数和时间序列验证性能数据来预测部分训练模型配置的最终性能的方法,并证明该方法在视觉分类和语言建模领域中是有效的。同时,我们提出了一种早期停止方法,可用于超参数优化和元模建模,加速了模型配置的优化过程,该方法在强化学习 - based 架构选择算法和基于贝叶斯思想的搜索方法中均可无缝集成。
May, 2017
该论文提出了一种方法,联合搜索最佳预训练模型和微调的超参数,建立了一个大规模元数据集,通过元学习方法基于此进行多保真度性能预测器,快速优化新数据集的超参数,最终得到一个精准的预训练模型和其最优超参数。
Jun, 2023
本文介绍了机器学习领域中的超参数搜索问题,并从优化的角度讨论了其主要挑战。大多数通用的学习算法包含一组必须在训练开始前确定的超参数,其选择会对结果模型的性能产生重大影响,本文提出了一个有纪律、基于理论的搜索策略是至关重要的。
Feb, 2015
本文提出了一种基于代理的协作技术,以找到任意一组超参数(或决策变量)的近似最优值,其设计了分布式搜索操作的分层代理架构,使用基于自适应宽度的随机采样技术进行合作搜索,并在机器学习和全局函数优化应用中,通过与两种常用随机调整策略的比较得出,该模型在多维度和设备资源有限的情况下优于其他方法。
Mar, 2023