Jan, 2022

强凸损失理论在适当在线学习中的最优动态遗憾及其扩展

TL;DR本文研究了强凸损失函数下的动态遗憾最小化框架,通过利用 KKT 条件所施加的许多新约束条件,我们回答了 Baby 和 Wang 2021 年提出的一个开放性问题,并展示了强适应算法在适当的学习设置下可以同时针对任何比较序列达到几乎最优的动态遗憾。此外,在处理非平滑损失和改善回避维度依赖性等方面,我们还取得了 Baby 和 Wang 2021 年工作的其他改进,并针对 exp-concave 损失和一个 L∞受限决策集的特殊情况导出了几乎最优的动态遗憾率。