Feb, 2024

基于强凸性引导的超参数优化方法用于更平缓的损失函数

TL;DR我们提出了一种新颖的白盒方法来进行超参数优化,通过最小化损失函数的强凸性来改善其平坦性,利用神经网络的结构推导出近似求解强凸参数的闭式方程,并随机搜索使其最小化的超参数配置,通过在 14 个分类数据集上的实验,我们展示了我们的方法在运行时间的一小部分下取得了强大的性能。