探索基本引理与核回归之间的关联
我们介绍了一种新的学习内存核函数的方法,通过一种正则化的 Prony 方法从轨迹数据中估计相关函数,然后利用一种基于 Sobolev 范数损失函数的回归和 RKHS 正规化来提高性能,我们证明了我们的估计器相对于依赖于 L2 损失函数的其他回归估计器和由逆拉普拉斯变换导出的估计器的优越性,并通过多个权重参数选择的数值例子来突出显示其一致优势,此外,我们提供了方程中力和漂移项的应用示例。
Feb, 2024
本文研究了在重现核希尔伯特空间中进行正则化学习情景时,如何在核函数的温和假设下获得最佳的错误率。研究发现,可以利用一种增长速度比 RKHS 规范中的标准二次增长慢得多的正则化项。
Jan, 2010
本文介绍了如何在函数数据上使用再生核希尔伯特空间理论进行有监督学习和回归,扩展了基于核的学习的概念和性质,包括估计函数值函数的算法,阐述了一套严格定义的无限维算子值核,以及非线性函数数据分析的学习算法,并通过语音和音频信号处理实验进行了说明。
Oct, 2015
该研究提出了一种基于 Koopman 算子理论的新型重现核希尔伯特空间 (RKHS),称为 Koopman Kernel Regression (KKR),可以提高预测的准确性和泛化能力,对于以 Koopman 为基础的预测器,最新的统计学习方法存在限制,所以提供比现有研究更为详尽的证明和更宽松的假设。
May, 2023
给出一种结构保持的核岭回归方法,可以从由哈密顿矢量场的噪声观测组成的数据集中恢复可能是高维和非线性的哈密顿函数。该方法提供了一个闭式解,其数值性能优于文献中提出的其他技术。从方法论的角度,本文将核回归方法扩展到需要涉及梯度线性函数的损失函数的问题,特别是在这种背景下证明了微分再生性质和 Representer 定理。分析了结构保持的核估计量与高斯后验均值估计量之间的关系。进行了完整的误差分析,使用固定和自适应正则化参数提供了收敛速度。通过各种数值实验展示了所提出估计器的良好性能。
Mar, 2024
统计学习中的各种方法建立在再生核 Hilbert 空间中的核上。在应用中,核通常根据问题和数据的特征进行选择,然后用于在未观察到解释性数据的点处推断响应变量。本文考虑了在高维紧致集合中定位的数据,并且对核本身的近似进行了讨论。新的方法考虑了径向核函数的 Taylor 级数近似。对于单位立方上的 Gauss 核,本文建立了关联特征值的上限,该特征仅在指数方面呈多项式增长。新方法证实了比文献中考虑的较小正则化参数,从而导致更好的近似。该改进证实了像 Nyström 方法这样的低秩近似方法。
Mar, 2024
本文采用数据自适应 RKHS Tikhonov 正则化方法,提出基于可识别性函数空间的非局部算子核学习的收敛估计器,成功地从实际数据中学习微观尺度上应用于非均质固体的应力波传播的均质化模型,并在健壮性,泛化性和准确性方面优于基线方法。
May, 2022
利用扩展的再生核希尔伯特空间(RKHS)理论建立了一个新的框架,可以对功能响应进行函数回归模型建模。该方法只假定一般非线性回归结构,而不是以前研究过的线性回归模型,并提出了广义交叉验证(GCV)来进行自动平滑参数估计。新的 RKHS 估计方法在模拟和实际数据上进行了应用。
Feb, 2007
本文研究了支持向量回归的变分问题在巴拿赫函数空间中的应用,并利用 Fenchel-Rockafellar 对偶理论给出了对偶问题及相关最优性条件的解析公式;我们提出了一种新的张量核表示计算框架,充分适用于幂级数张量核,也包括指数和多项式核泛函空间的推广。在复数情况下,还包括 Szeg"o 和 Bergman 核的推广。
Mar, 2016