Mar, 2017

无约束域和损失的在线凸优化

TL;DR我们提出了一种在线凸优化算法 (RescaledExp),该算法在无约束设置下实现了最优的后悔,并没有先验知识任何损失函数的界限。我们证明了一个下界,说明现有算法在损失函数需要已知界限的情况下与不需要这种知识的任何算法之间存在指数分离。RescaledExp 在迭代次数方面与这个下界是一致的。RescaledExp 自然无超参数,并且我们通过实验证明它可以匹配需要超参数优化的之前的优化算法。