本研究通过核方法的角度对卷积核网络进行了研究,发现其 RKHS 由补丁之间的交互项的加性模型组成,其范数通过汇聚层促进这些项之间的空间相似性,并提供了泛化界,以说明池化和补丁如何提高样本复杂度保证。
Feb, 2021
介绍了可伸缩的深度核,将深度学习架构的结构属性与核方法的非参数灵活性相结合,通过局部核插值、引入点、Kronecker 和 Toeplitz 代数进行转换,使用这些闭式核可以用作标准核的替代品,在表达能力和可伸缩性方面具有优势,通常情况下,学习和推断代价为 $ O (n)$,而预测代价为每个测试点的 $O (1)$。
Nov, 2015
本文采用数据自适应 RKHS Tikhonov 正则化方法,提出基于可识别性函数空间的非局部算子核学习的收敛估计器,成功地从实际数据中学习微观尺度上应用于非均质固体的应力波传播的均质化模型,并在健壮性,泛化性和准确性方面优于基线方法。
May, 2022
统计学习中的各种方法建立在再生核 Hilbert 空间中的核上。在应用中,核通常根据问题和数据的特征进行选择,然后用于在未观察到解释性数据的点处推断响应变量。本文考虑了在高维紧致集合中定位的数据,并且对核本身的近似进行了讨论。新的方法考虑了径向核函数的 Taylor 级数近似。对于单位立方上的 Gauss 核,本文建立了关联特征值的上限,该特征仅在指数方面呈多项式增长。新方法证实了比文献中考虑的较小正则化参数,从而导致更好的近似。该改进证实了像 Nyström 方法这样的低秩近似方法。
Mar, 2024
利用动态再生核赋范空间方法研究神经网络的逼近和表示优势,证明其自适应核函数表示比经典非参数方法中的预先指定的固定基础表示更具优势,同时通过渐进正则化说明其渐进收敛性。
Jan, 2019
机器学习中一个核心主题是从稀疏和嘈杂的数据中进行函数估计。本文研究了内核岭回归,并推导了在非平稳分布下的收敛条件,同时解决了可能无限次发生的随机调适情况,包括重要的探索 - 开发问题。
Oct, 2023
本研究探讨了一层卷积、汇集和降采样操作组成的核的 RKHS,并用它来计算高维函数的一般化误差尖锐的渐近值。结果表明,卷积和池化操作在一层卷积核中如何在逼近和泛化能力之间权衡。
Nov, 2021
该论文提出了一种基于核函数的机器学习算法,可以通过对数据集的分组进行处理,采用独立同分布的样本集作为数据点,利用非参数估计器提取核函数特征从而实现多种分类、回归和异常检测等任务。
Feb, 2012
用 KIP 算法从大规模数据集中提取出适合于训练机器学习模型的小规模数据集且在保持模型性能的同时可以大幅减小数据集容量的同时可以实现隐私保护,该算法在 MNIST 和 CIFAR-10 的分类中获得了最先进的结果。
Oct, 2020
本文介绍了一种基于核函数和克里格 - Kalman 滤波器的图信号重建方法,其结合多核心选择模块,来优化信号动态变化下的核函数选择和同时减少计算复杂度,实验结果表明,该方法在信号重建方面优于现有的最新算法。
Nov, 2017