核学习中的正则化
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
通过使用再生核希尔伯特空间的范数作为正则化深度神经网络的新视角来提高学习效果,并提出了一些新的有效的正则化策略,实验结果表明这种方法在小数据集或对抗鲁棒性较高的模型上都取得了很好的效果。
Sep, 2018
探讨了基于经验风险惩罚的多核学习问题。它综合考虑了经验 $L_2$ 范数和核引起的再生核希尔伯特空间(RKHS)范数及其正则化参数的数据驱动选择的复杂度惩罚。主要关注的是当核心总数很大但仅需要较少数量的核心来表示目标函数时,该问题是稀疏的情况。目标是建立超预言不等式的超额风险,用于描述该方法是如何适应未知设计分布和问题的稀疏性。
Nov, 2012
本文研究了无正则化的 RKHS 在线梯度下降算法的收敛性和收敛速率条件,探讨了平均迭代和最后一次迭代的过度泛化误差和收敛速率,首次提出了无强凸性的 online gradient descent 的高概率收敛速率。
Aug, 2017
本文考虑在再生核希尔伯特空间中的非规则化在线学习算法,给出了分类的显式收敛速率以及对于一般损失函数的非规则化成对学习算法的首次收敛性证明和收敛速率。
Mar, 2015
研究了基于核的最小二乘回归以及通过早期停止进行过度拟合的正则化的共轭梯度算法,并提出了该方法的收敛率,如果真实回归函数属于再生核希尔伯特空间,则其上限可以匹配之前文献中获得的下限.
Sep, 2010
研究了具有依赖性和非平稳在线数据流的递归正则化学习算法在复制核希尔伯特空间中的收敛性。通过研究随机差分方程在核希尔伯特空间中的均方渐近稳定性和随机 Tikhonov 正则化路径的概念,证明了算法输出与正则化路径一致,并且满足一定条件下算法输出与未知函数一致。对于独立和非同分布的数据流情况,通过研究边缘概率测度和定期时间段的平均测度,证明了均方一致性的实现。
Apr, 2024
本文通过建立一个小噪声分析框架,比较了 Tikhonov 和 RKHS 正则化问题中各种正则化规范的效果,发现 L2 正则化器存在潜在的不稳定性,并通过提出一种新颖的自适应分数 RKHS 正则化器来解决其不稳定性,实验结果表明,过度平滑可以提高收敛速度,但最优超参数难以实际选择。
May, 2023