Jan, 2022

强凸损失理论在适当在线学习中的最优动态遗憾及其扩展

TL;DR本文研究了强凸损失函数下的动态遗憾最小化框架,通过利用KKT条件所施加的许多新约束条件,我们回答了Baby和Wang 2021年提出的一个开放性问题,并展示了强适应算法在适当的学习设置下可以同时针对任何比较序列达到几乎最优的动态遗憾。此外,在处理非平滑损失和改善回避维度依赖性等方面,我们还取得了Baby和Wang 2021年工作的其他改进,并针对exp-concave损失和一个L∞受限决策集的特殊情况导出了几乎最优的动态遗憾率。