我们提出了一种新颖的扩散方案,用于在网络上进行基于内核的在线学习,通过使用 Random Fourier Features,将解决方案近似为固定大小的向量,并提供了渐近收敛和网络遗憾的限制条件。
Mar, 2017
探讨了基于经验风险惩罚的多核学习问题。它综合考虑了经验 $L_2$ 范数和核引起的再生核希尔伯特空间(RKHS)范数及其正则化参数的数据驱动选择的复杂度惩罚。主要关注的是当核心总数很大但仅需要较少数量的核心来表示目标函数时,该问题是稀疏的情况。目标是建立超预言不等式的超额风险,用于描述该方法是如何适应未知设计分布和问题的稀疏性。
Nov, 2012
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
本研究提出了一种基于 robust loss function 的在线学习算法,通过选择合适的 scaling parameter 和步长,可以达到最优的收敛速度并且实现在均方距离和 Hilbert 空间强收敛速度的最优容量相关率,这两个结果都是在线学习领域中的新成果。
Apr, 2023
本文首次提供了 Nyström 方法用于求解不定核的低秩矩阵逼近的数学完整证明,并提出了一种高效的方法来寻找这种核矩阵的近似特征分解,以此构建可在再现核 Krein 空间中学习的高度可扩展方法。这些方法提供了一种有原则的并且理论基础良好的方法来解决大规模关于不定核的学习问题。本文的主要动机来自于具有结构表示的问题(例如图形,字符串,时间序列),在这些问题上,根据直觉和 / 或领域专家的知识很容易设计出一对一的(不)相似度函数。这些函数通常不是正定形的,并且超出了实践者的专业知识范围。本文使用不定核构建在结构化和向量化数据表示中,通过经验证明了这些方法的有效性。
Sep, 2018
本文提出了一种从离线数据(元学习)中元学习内核(Meta-KeL)的方法,以替代手动设计内核,解决了基于假设空间先验假设的置信度量(预测函数)的可靠性和适应性问题,并在基于内核的赌博机问题(Bayesian optimization)上进行了实证研究。
Feb, 2022
研究了采用非参数高斯过程先验的 UCRL 和后验抽样算法的在线学习方法在未知的连续状态和动作的马尔可夫决策过程中最小化后悔的问题,在频率设置下,通过对核函数诱导的函数的再生核希尔伯特空间的真实 MDP 的转移和奖励函数的成员进行变异,研究了这些算法的后悔边界问题,并突出了转移和奖励函数对学习性能的影响。
May, 2018
本文提出了一个基于分布式凸优化和随机化的算法框架和高性能实现,以实现基于核方法的统计模型的海量规模训练,以便有效地利用大数据。
Sep, 2014
研究如何通过随机样品学习一组数据,通过再生核希尔伯特空间理论中的概念分析数据集的几何和拓扑属性,并证明了分离核的重要性,从而推导出一系列稳定性良好的正则化学习算法,此方法比其他现有技术更具竞争力。
Apr, 2012