强健在线学习的最优性
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
本文考虑在再生核希尔伯特空间中的非规则化在线学习算法,给出了分类的显式收敛速率以及对于一般损失函数的非规则化成对学习算法的首次收敛性证明和收敛速率。
Mar, 2015
研究了使用一种新的预测算法在无需假设标签与对象的生成方式的条件下,对已知标签对象的实时预测问题,通过比较此算法与一定范围内的预测规则,证明了此算法的误差率在极限范围下可达到最佳状态,可用于无参统计学的普适预测。
Nov, 2005
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
研究了具有依赖性和非平稳在线数据流的递归正则化学习算法在复制核希尔伯特空间中的收敛性。通过研究随机差分方程在核希尔伯特空间中的均方渐近稳定性和随机 Tikhonov 正则化路径的概念,证明了算法输出与正则化路径一致,并且满足一定条件下算法输出与未知函数一致。对于独立和非同分布的数据流情况,通过研究边缘概率测度和定期时间段的平均测度,证明了均方一致性的实现。
Apr, 2024
本文研究了无正则化的 RKHS 在线梯度下降算法的收敛性和收敛速率条件,探讨了平均迭代和最后一次迭代的过度泛化误差和收敛速率,首次提出了无强凸性的 online gradient descent 的高概率收敛速率。
Aug, 2017
本文研究了在重现核希尔伯特空间中进行正则化学习情景时,如何在核函数的温和假设下获得最佳的错误率。研究发现,可以利用一种增长速度比 RKHS 规范中的标准二次增长慢得多的正则化项。
Jan, 2010
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
Aug, 2023
本文研究了在线情况下健壮线性回归问题,提出了一种基于随机梯度下降方法和 L1 损失函数的高效算法,能够在存在污染数据情况下有效检测和去除异常值,算法复杂度与污染比例相关。
Jul, 2020