Jul, 2014
线性耦合:梯度下降与镜像下降的终极统一
A Novel, Simple Interpretation of Nesterov's Accelerated Method as a
Combination of Gradient and Mirror Descent
TL;DR第一阶段方法在大规模机器学习中扮演了核心作用,在保持渐进进展和提供双重进展的基础上,我们观察到梯度和镜像下降的性能是互补的,因此可以通过将两者进行线性耦合来设计更快速的算法,我们展示了如何使用线性耦合重构Nesterov的加速梯度方法,并通过将其扩展到Nesterov方法无法适用的许多其他设置来讨论线性耦合的威力。