介绍了一种名为 DyHPO 的灰箱超参数优化方法,它能够学习动态决定下一个尝试哪个配置和预算。通过 50 个数据集和各种神经网络的大规模实验,我们证明了 DyHPO 比最先进的超参数优化基线具有显着的优越性。
Feb, 2022
研究使用贝叶斯优化调整机器学习模型的超参数,探讨如何在发布最佳超参数和分类器准确度时保护隐私,并使用差分隐私和平滑性保证来对实验结果进行保密。
Jan, 2015
在超参数调整问题中,提供了关于当前隐私分析是紧密的一般意义上的证实,然而,当专门研究超参数调整问题时,密切性不再成立。此外,通过隐私审计发现了当前理论上的隐私边界与经验边界之间的实质差距,并提供了改进后的隐私结果以及比以往分析更具普适性的结果。
Feb, 2024
本文介绍了自动超参数优化方法,并回顾了包括格子搜索、随机搜索、进化算法、贝叶斯优化、Hyperband 和竞速等在内的重要超参数优化方法及其实际运用中要注意的事项,并提供了具体实现方案及软件包信息,使得机器学习算法的配置能力更为高效地进行。
Jul, 2021
利用自动超参数优化来设计和训练深度学习中的神经网络仍然是一个令人困惑和具挑战性的过程。本文对多种重要的自动超参数优化相关主题进行了回顾和研究:关键超参数、主要优化算法、超参数搜索框架、模型性能评估等。
Mar, 2020
使用基于广义加法模型(GAM)替代与同伦优化结合的数据驱动方法,我们提出了一种新的超参数优化方法 HomOpt,以提高现有方法在连续、离散和分类域空间上的性能和效果,并在多个优化技术(如随机搜索、TPE、贝叶斯和 SMAC)应用 HomOpt,展示了对许多标准机器学习基准和具有挑战性的开集识别任务的改进性能。
Aug, 2023
本文介绍了一种使用 Tree-structured Parzen Estimators 采样策略和训练带异质噪声的 Gaussian Process Regression 元模型的多目标超参数优化方法,具有更好的超体积指标表现,并考虑到模型评估的不确定性。
Sep, 2022
本文提出 HyperTuner 以实现跨层次多目标超参数自动调整,首先通过其 MOPIR 算法进行多目标参数重要性排名,然后利用 ADUMBO 算法找到帕累托最优配置集,在每个迭代中通过最大化一个新的设计良好的度量选择最有前途的配置。
Apr, 2023
本文研究差分隐私算法包括 DP-SGD 等在进行多次训练来微调算法超参数时产生的隐私泄漏问题,并提出了基于 Renyi 差分隐私的超参数搜索方法,结果表明虽然调整超参数的确会带来隐私泄漏,但只要每次候选训练运行本身是差分隐私的,那么泄漏就是适度的。
Oct, 2021
本文提出了超频参数 Hyperband 的增量变体,以消除选择过小的大预算所引起的昂贵成本和有价值已积累知识的流失问题,并在基准数据集实验中展示了它们的实用性和理论保证的类似性。
Feb, 2023