Aug, 2017

非正则化在线学习算法的收敛性

TL;DR本文研究了无正则化的 RKHS 在线梯度下降算法的收敛性和收敛速率条件,探讨了平均迭代和最后一次迭代的过度泛化误差和收敛速率,首次提出了无强凸性的 online gradient descent 的高概率收敛速率。