平滑在线优化的最优算法:超越在线平衡下降
在线凸优化问题中,我们考虑带有二次和线性切换成本的有限信息环境下的问题,通过使用关于先前目标函数的梯度信息,我们提出了在线多梯度下降算法 (Online Multiple Gradient Descent, OMGD),并证明了其在二次切换成本的 OCO 问题的竞争比为至多 4 (L + 5) + (16 (L + 5))/μ。对于有界信息环境中的在线算法,其竞争比的上界和下界分别为 max {Ω(L), Ω(L/√μ)}。此外,还证明了 OMGD 算法实现了有限信息环境下的动态最优(按顺序)遗憾,并且对于线性切换成本,OMGD 算法的竞争比的上界取决于问题实例的路径长度、平方路径长度以及 L、μ,并且被证明是任何在线算法能够达到的最佳竞争比。因此,我们得出结论,在有限信息环境中,二次和线性切换成本的最优竞争比基本上是不同的。
Oct, 2023
设计了一个全自适应的 OGD 算法,无需先验知识,具有强凸性和单调性参数;在单个代理设置中,该算法在强凸性下可以实现 O (log^2 (T)) 的遗憾,且在强单调性下可以使联合行动以速度 O (log^3 T / T) 最后迭代收敛到唯一的纳什均衡点。
Oct, 2023
提出了一种适应性在线梯度下降算法,用于解决具有长期约束的在线凸优化问题,可以处理任意凸约束,该算法在损失和约束违规方面分别具有 O (T^max {β,1−β}) 和 O (T^(1−β/2)) 的累积遗憾界,优于 Mahdavi 等(2012 年)最好的已知累积遗憾界,该算法的性能已在实践中得到验证。
Dec, 2015
我们研究了如何在带有轨迹反馈的零和不完全信息博弈中学习 ε- 最优策略,通过应用自适应在线镜像下降算法,在信息集中使用逐渐减小的学习率和正则化损失,我们证明了该方法在高概率下能够保证收敛速度为~T^(-1/2),并且在理论上的最佳学习率和采样策略选择时,对于游戏参数的依赖性接近最优。为了实现这些结果,我们扩展了对 OMD 稳定性的概念,允许随时间变化的凸增量正则化。
Sep, 2023
研究了在线环境下的通用拟阵约束下的单调子模最大化问题,证明了一大类子模函数在在线凸优化问题中的优化等价性,通过合适的舍入方案,实现了在组合优化中达到次线性后悔的 OCO 算法。同时,该规约也适用于多种不同版本的在线学习问题,包括动态后悔、游走和乐观学习等。
Sep, 2023
本文研究具有随机约束的在线凸优化问题,提出了一种新的原始 - 对偶镜像下降算法,其可以在不需要 Slater 条件的情况下达到与先前的方法相似的性能并允许等式约束。
Aug, 2019
本文提出了一种投影 - 无关算法 POBGA,通过在线提升梯度上升算法、不可行的投影技术和阻塞技术的新颖组合,以及分散设置的变体,有效地缩短了由先前算法 Mono-FW 降低的后悔下限,并将通信复杂度从 O(T)降低到 O(√T)。
May, 2023
本论文研究了如何利用在线学习动态算法来求解具有 Nash 均衡约束的凸凹博弈问题,通过引入乐观学习机制使得该方法求解速度得到了显著提升,同时还证明了在强凸平滑函数的情况下该方法的加速收敛性。
Jul, 2018