Feb, 2024
元参数优化的框架:MetaOptimize
MetaOptimize: A Framework for Optimizing Step Sizes and Other Meta-parameters
Arsalan Sharifnassab, Saber Salehkaleybar, Richard Sutton
TL;DR优化元参数(即超参数)对于训练效率和模型性能至关重要,本文介绍了 MetaOptimize 框架,它通过动态调整元参数(特别是学习速率)来优化训练过程,通过折现未来损失的累积和来最小化后悔,通过适应多种优化算法和引入低复杂度变体,实现与手工设计的学习率计划相媲美的性能,在各种机器学习应用中展现竞争力。