本文考虑在再生核希尔伯特空间中的非规则化在线学习算法,给出了分类的显式收敛速率以及对于一般损失函数的非规则化成对学习算法的首次收敛性证明和收敛速率。
Mar, 2015
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
研究了具有依赖性和非平稳在线数据流的递归正则化学习算法在复制核希尔伯特空间中的收敛性。通过研究随机差分方程在核希尔伯特空间中的均方渐近稳定性和随机 Tikhonov 正则化路径的概念,证明了算法输出与正则化路径一致,并且满足一定条件下算法输出与未知函数一致。对于独立和非同分布的数据流情况,通过研究边缘概率测度和定期时间段的平均测度,证明了均方一致性的实现。
Apr, 2024
本研究提出了一种基于 robust loss function 的在线学习算法,通过选择合适的 scaling parameter 和步长,可以达到最优的收敛速度并且实现在均方距离和 Hilbert 空间强收敛速度的最优容量相关率,这两个结果都是在线学习领域中的新成果。
Apr, 2023
本文研究了在重现核希尔伯特空间中进行正则化学习情景时,如何在核函数的温和假设下获得最佳的错误率。研究发现,可以利用一种增长速度比 RKHS 规范中的标准二次增长慢得多的正则化项。
Jan, 2010
本文研究了基于再生核 Hilbert 空间(RKHS)框架下的随机设计最小二乘回归问题,其中采用平均非正则化最小均方算法得到了最优收敛速率。
Aug, 2014
本文探究噪声线性模型下单次训练中的随机梯度下降算法,证明了其收敛性和泛化误差的多项式收敛率,解释了结果在再生核希尔伯特空间框架下的意义,同时将分析应用于超出监督学习的场景。
Jun, 2020
研究了基于核的最小二乘回归以及通过早期停止进行过度拟合的正则化的共轭梯度算法,并提出了该方法的收敛率,如果真实回归函数属于再生核希尔伯特空间,则其上限可以匹配之前文献中获得的下限.
Sep, 2010
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
提出一种基于平均加速正则梯度下降的算法,通过细化初值和 Hessian 矩阵的假设,最优地优化回归问题,并证明其在偏差与方差之间具有最优性、大数据时初始化影响可达到 O(1/n2)以及对于维度 d 的依赖程度为 O(d/n)。
Feb, 2016