大步长非参数随机逼近
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
研究了具有依赖性和非平稳在线数据流的递归正则化学习算法在复制核希尔伯特空间中的收敛性。通过研究随机差分方程在核希尔伯特空间中的均方渐近稳定性和随机 Tikhonov 正则化路径的概念,证明了算法输出与正则化路径一致,并且满足一定条件下算法输出与未知函数一致。对于独立和非同分布的数据流情况,通过研究边缘概率测度和定期时间段的平均测度,证明了均方一致性的实现。
Apr, 2024
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
本研究提出了一种基于 robust loss function 的在线学习算法,通过选择合适的 scaling parameter 和步长,可以达到最优的收敛速度并且实现在均方距离和 Hilbert 空间强收敛速度的最优容量相关率,这两个结果都是在线学习领域中的新成果。
Apr, 2023
本文考虑在再生核希尔伯特空间中的非规则化在线学习算法,给出了分类的显式收敛速率以及对于一般损失函数的非规则化成对学习算法的首次收敛性证明和收敛速率。
Mar, 2015
本文研究了无正则化的 RKHS 在线梯度下降算法的收敛性和收敛速率条件,探讨了平均迭代和最后一次迭代的过度泛化误差和收敛速率,首次提出了无强凸性的 online gradient descent 的高概率收敛速率。
Aug, 2017
本文研究了在重现核希尔伯特空间中进行正则化学习情景时,如何在核函数的温和假设下获得最佳的错误率。研究发现,可以利用一种增长速度比 RKHS 规范中的标准二次增长慢得多的正则化项。
Jan, 2010
研究了使用一种新的预测算法在无需假设标签与对象的生成方式的条件下,对已知标签对象的实时预测问题,通过比较此算法与一定范围内的预测规则,证明了此算法的误差率在极限范围下可达到最佳状态,可用于无参统计学的普适预测。
Nov, 2005
在这篇研究中,我们考虑了一个具有最优解 θ* 和 Hessian 矩阵 H 的在线最小二乘回归问题,并研究了 θ* 的时间平均随机梯度下降估计器。我们提供了 θ* 的无偏估计器,它是时间平均估计器的修改版本,在 k 阶数量级的时间步骤内运行,具有 O (1/k) 的预期超出风险。O 记号后的常数依赖于回归的参数,是 H 的最小特征值的多对数函数。我们提供了时间平均估计器和其无偏对应物的预期超出风险的有偏和无偏估计器,而不需要对 H 或 θ* 有任何了解。我们描述了我们的估计器的 “平均起始” 版本,具有类似的性质。我们的方法基于随机多级蒙特卡罗。我们的数值实验证实了我们的理论发现。
Jun, 2024
研究了神经网络在最小二乘设置中的应用,讨论了随机梯度下降与最终迭代的相关性,并在统计和优化双重视角下给出了多项式瞬时收敛率的解读,建立与再生核希尔伯特空间的联系。
Feb, 2021