May, 2022

利用 Transformer 实现通用超参数优化器学习

TL;DR本文介绍了 OptFormer,它是第一个基于文本的 Transformer HPO 框架,可以在从 Google 的 Vizier 数据库等多种调整数据中训练,以提供学习策略和功能预测的通用端到端接口。OptFormer 能同时模拟至少 7 种不同的 HPO 算法,可以通过其函数不确定性估计进一步改进,并学习到对超参数响应函数的强健先验分布,可以提供更准确和更好的校准预测,这项工作为训练基于 Transformer 模型作为通用 HPO 优化器的未来扩展铺平了道路。