本文提出了一种名为 Fastfood 的近似方法,通过利用 Hadamard 矩阵和对角高斯矩阵而不是高斯随机矩阵,使得计算非线性基函数的时间复杂度缩小到了 O (n log d) 并且仅需 O (n) 的存储空间,同时保证了无偏和低方差的特点,为核方法的实际应用提供了可能性。
Aug, 2014
介绍了可伸缩的深度核,将深度学习架构的结构属性与核方法的非参数灵活性相结合,通过局部核插值、引入点、Kronecker 和 Toeplitz 代数进行转换,使用这些闭式核可以用作标准核的替代品,在表达能力和可伸缩性方面具有优势,通常情况下,学习和推断代价为 $ O (n)$,而预测代价为每个测试点的 $O (1)$。
Nov, 2015
通过基于随机投影导出的特征近似核函数,提出了有效地克服核方法计算复杂度的方法,并在图像识别和语音识别等大规模学习问题上成功地比较了核方法和深度神经网络的性能,同时克服了模型调节的困难。
Nov, 2014
本文提出了一种新的大规模支持向量机求解器 Snacks,其中利用了核矩阵的 Nyström 逼近和随机次梯度方法的加速变体,通过详细的实证评估形式上证明其在各种基准数据集上与其他 SVM 求解器相当。
Apr, 2023
本文提出了一种基于非平稳谱核并能从数据中灵活学习谱度量的强大高效谱核学习框架,还导出了一个基于 Rademacher 复杂度的数据相关推广误差界,并提出两个正则化项以提高性能。实验结果表明该算法的有效性并验证了作者的理论结果。
Sep, 2019
本文研究在语音识别中应用大规模核方法和深度神经网络进行声学建模,并比较它们的性能。我们在四个数据集上进行了实验,使用随机傅里叶特征方法以扩展核方法的规模,在特征选择和监控基于帧的指标等方面提出了两种新技术,并演示了这些方法综合运用可以将核声学模型的性能提高到与深度神经网络相似的水平。
Jan, 2017
本研究通过核方法的角度对卷积核网络进行了研究,发现其 RKHS 由补丁之间的交互项的加性模型组成,其范数通过汇聚层促进这些项之间的空间相似性,并提供了泛化界,以说明池化和补丁如何提高样本复杂度保证。
Feb, 2021
通过非均匀快速傅里叶变换(NFFT)和严格的误差分析,研究了在处理大型稠密核矩阵时的快速近似方法,以及在高维特征空间中处理核函数导数时的适用性和性能。通过在多个数据集上进行性能演示,验证了加性核方案的有效性。
Apr, 2024
提出了一种通用方法,可将数值线性代数中的随意草图解决方案应用于数据点的张量,从而根据多项式内核函数的大小开发了第一个仅在目标维度上具有多项式依赖性的多项式内核的忽略草图,并且无需因输入数据维数而遭受指数依赖。
通过高斯过程和统计物理学的理论方法,我们得到了内核回归广义性能的分析表达式,这些表达式是关于训练样本数量的函数。我们的结果适用于具有广泛神经网络的情况,这是由于训练它们和使用神经切向核 (NTK) 的核回归之间的等效性。通过计算核的不同谱成分对总体泛化误差的分解,我们确定了一个新的谱原理:随着训练集大小的增长,核机和神经网络逐渐适应目标功能的更高频谱模式。当数据从高维超球面上的均匀分布中采样时,点积核,包括 NTK,显示出学习阶段,其中学习不同频率模式的目标函数。通过对合成数据和 MNIST 数据集的模拟,我们验证了我们的理论。
Feb, 2020