Apr, 2025
冻结层:节省内存的多保真度超参数优化
Frozen Layers: Memory-efficient Many-fidelity Hyperparameter
Optimization
TL;DR本研究解决了随着模型规模增长,深度学习管道中高效、经济的超参数优化方法的需求问题。提出了一种新颖的方法,即在训练过程中冻结或训练的层数作为保真度源,这种方法在计算和内存方面提供了显著节省,同时保持了低保真度下超参数之间的秩相关性。实证评估表明,该贡献为使用硬件资源作为保真度的多保真度超参数优化开辟了新应用,并为改进算法在联合保真空间中的导航提供了机会。