Sep, 2010
带隐式更新的正则化对偶平均与镜像下降的统一视角
Follow-the-Regularized-Leader and Mirror Descent: Equivalence Theorems
and Implicit Updates
TL;DR该研究探讨了三家在线凸优化算法家族:follow-the-proximally-regularized-leader(FTRL-Proximal)、正则化双平均(RDA)和组合目标镜像下降。研究证明了所有这些算法都是通用FTRL更新的实例。此外,通过使用紧凑的表示方法,文中还提出了一种更好的算法性能估计方法,在真实数据集上展现出了更好的性能。