BriefGPT.xyz
Jun, 2021
随机偏差减小梯度法
Stochastic Bias-Reduced Gradient Methods
HTML
PDF
Hilal Asi, Yair Carmon, Arun Jambulapati, Yujia Jin, Aaron Sidford
TL;DR
本文提出一种新的随机优化原理,即使用 Blanchet 和 Glynn 的多级 Monte-Carlo 方法将任何最优随机梯度方法转换为 $x_*$ 的估计量,以此为基础获得了一种廉价且几乎无偏差的梯度估计器,可以应用于随机优化的多个领域,如随机优化,概率图形模型推理以及优化的机器学习等。
Abstract
We develop a new primitive for
stochastic optimization
: a low-bias, low-cost estimator of the minimizer $x_\star$ of any Lipschitz strongly-convex function. In particular, we use a multilevel
monte-carlo approach
→