May, 2022
利用Transformer实现通用超参数优化器学习
Towards Learning Universal Hyperparameter Optimizers with Transformers
TL;DR本文介绍了OptFormer,它是第一个基于文本的Transformer HPO框架,可以在从Google的Vizier数据库等多种调整数据中训练,以提供学习策略和功能预测的通用端到端接口。OptFormer能同时模拟至少7种不同的HPO算法,可以通过其函数不确定性估计进一步改进,并学习到对超参数响应函数的强健先验分布,可以提供更准确和更好的校准预测,这项工作为训练基于Transformer模型作为通用HPO优化器的未来扩展铺平了道路。