Nov, 2017
AdaBatch:基于有效渐进聚合规则的序列和并行随机梯度方法
AdaBatch: Efficient Gradient Aggregation Rules for Sequential and
Parallel Stochastic Gradient Methods
TL;DR本文研究一种用于 mini-batch 的梯度聚合算子,名为 AdaBatch。该算子可用于随机梯度方法,并在稀疏优化问题中大大加速训练过程,同时在保持样本效率的前提下增加批处理大小。实验显示,在光滑凸优化中,该方法甚至可以在固定样本数量的情况下,通过增加批处理大小获得更低的损失。