Feb, 2024
分散式在线凸优化的近优遗憾
Nearly Optimal Regret for Decentralized Online Convex Optimization
TL;DR我们在分散的在线凸优化中(D-OCO),通过仅使用本地计算和通信来最小化一系列全局损失函数的一组本地学习器。我们首先开发了一种新颖的D-OCO算法,将凸函数和强凸函数的遗憾边界分别降低到O(nρ^{−1/4}√T)和O(nρ^{−1/2}log T)。通过设计一种在线加速的谣言策略并巧妙利用特定网络拓扑的谱特性,我们进一步提高了凸函数和强凸函数的下界为Ω(nρ^{−1/4}√T)和Ω(nρ^{−1/2})。