Jun, 2022

可证明的强鲁棒性元贝叶斯优化

TL;DR本文介绍了两种可扩展且在元学习中具有稳健性的算法,它们是 “稳健元高斯过程 - 置信上界”(RM-GP-UCB)和 “稳健元高斯过程 - 汤普森抽样”(RM-GP-TS),两者均具有渐进无遗憾性。我们同时优化经过在线学习分配给个别任务的权重来减弱不同任务的影响,从而进一步增强稳健性。实证评估表明,在各种应用中,RM-GP-UCB 表现出有效和一致的性能,而尽管 RM-GP-TS 在理论和实践中都不如 RM-GP-UCB 稳健,但在一些具有较少不同任务的场景中表现具有竞争力且更具计算效率。