FALKON: 一种大规模最优核方法
本文将herding算法扩展到连续空间,并使用kernel技巧,生成了一种无限内存的确定性过程 - ‘kernel herding’算法,该方法通过样本集合学习来逼近PDF。我们通过减少期望误差来说明了kernel herding在Hilbert空间中函数的收敛速率比iid随机样本的O(1/pT)快得多,而是O(1/T)。此外,我们通过逼近贝叶斯预测分布来说明了kernel herding算法的应用。
Mar, 2012
研究了使用双重随机函数梯度的方法来扩展核方法以及其在优化问题中的应用,其中使用此方法产生的函数在核希尔伯特空间中的表现具有良好的收敛速率,并且已经被证明可以适用于像MNIST、分子空间和ImageNet这样的数据集中。
Jul, 2014
本文提出了一种名为Fastfood的近似方法,通过利用Hadamard矩阵和对角高斯矩阵而不是高斯随机矩阵,使得计算非线性基函数的时间复杂度缩小到了 O(n log d)并且仅需O(n)的存储空间,同时保证了无偏和低方差的特点,为核方法的实际应用提供了可能性。
Aug, 2014
研究使用核方法学习监督任务所需的训练数据量,发现泛化误差随训练数据量$n$的负指数幂下降,其指数$eta$依赖于数据平滑度和维度,在真实数据集上实验表明$eta$一般较小,可以通过关注真实函数在核的特征向量上的投影来预测$eta$。
May, 2019
通过实验证明了核方法优于限制宽度的全连接神经网络,并且证实NNGP内核经常优于NT内核,但它们的性能都受到正则化的影响。此外,作者提出了使用 NNGP 和 NT 内核进行预测的最佳实践方法,并在 CIFAR-10 分类任务中取得了最优结果。
Jul, 2020
本文探讨了一种基于函数评估的平滑函数全局最小化方法,通过使用无穷次平方平滑函数之和联合建模函数以逼近并寻找全局最小值,在时间多项式子采样的情况下,该方法的计算复杂性为 $O(n^{3.5})$,空间复杂性为 $O(n^2)$,并可以实现与全局最优解的收敛速度为 $O(n^{-m/d + 1/2 + 3/d})$,尤其适用于具有大量导数的函数,且在维数为 $m$ 的情况下,全局最优解的收敛速度不会受到“维度诅咒”的影响,而仅受到最坏情况下的特定常数影响。
Dec, 2020
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
Aug, 2023
对大维数据的核回归进行研究,利用Mendelson复杂度和度量熵的上界和下界来表征核回归的极小二乘误差率,进一步确定最优极小二乘误差率,并发现该曲线沿着参数变化时呈现多次下降行为和周期平台行为,同时也适用于神经切线核和宽神经网络。
Sep, 2023
我们提出了GeometricKernels软件包,它在图形、网格、流形或其他相关空间上定义了具有良好不确定性量化行为和数值计算价值的核函数,从而解决了定义有结构数据的设置中出现的困难。
Jul, 2024