Feb, 2020

有偏随机梯度下降用于条件随机优化

TL;DR本研究提出了一种有偏随机梯度下降算法(BSGD),并在不同结构假设下研究了偏差 - 方差权衡。我们确定了 BSGD 的样本复杂度,包括强凸、凸和弱凸目标,在平滑和非平滑条件下,并为凸 CSO 目标提供相匹配的下界。通过进行广泛的数值实验,我们证明了 BSGD 在鲁棒逻辑回归,模型无关元学习(MAML)和工具变量回归(IV)中的性能。