May, 2024

完全无约束的在线学习

TL;DR我们提供了一种在线学习算法,可以在不知道 G 或∥w∗∥的情况下,获得在 G-Lipschitz 凸损失函数上的遗憾 G∥w∗∥√(Tlog (∥w∗∥G√T)+∥w∗∥^2+G^2),这与具有此类知识的最佳界限 G∥w∗∥√T 匹配(除了对数因子),除非∥w∗∥或 G 太大,以至于即使 G∥w∗∥√T 在 T 中也大致线性。因此,在可以实现次线性遗憾的所有场景中,它匹配了最佳界限,这可以说是最 “有趣” 的情况。