支持向量机(SVM)是一种流行的用于数据分类的核方法,本文提出一种基于最佳子空间的最小距离的新方法,以解决 SVM 存在的时间处理、高维情况下优化过程失败、多类别泛化、不平衡类别和动态分类的问题,并取得了类似的性能改进。
Aug, 2023
该论文提出了一种基于核函数的机器学习算法,可以通过对数据集的分组进行处理,采用独立同分布的样本集作为数据点,利用非参数估计器提取核函数特征从而实现多种分类、回归和异常检测等任务。
Feb, 2012
我们提出了一种基于加权支持向量机的稀疏学习方法,结合了自动变量选择和准确的概率估计,既能有效地进行变量选择,又能可靠地估计概率。这种方法在自动变量选择和可靠概率估计方面具有巨大优势,并且适用于高维问题。
Dec, 2023
本文提出了一种利用不确定核的支持向量机分类方法,该算法可以同时计算支持向量和代理核矩阵,保持问题凸性并可以使用梯度投影或解析中心切割平面方法有效地求解较大的问题,在经典数据集上与其他方法的性能比较表明本技术的性能优于其他方法。
Apr, 2008
经过评估,本文旨在展示经典的机器学习算法(如决策树、Boosting、支持向量机、k 最近邻算法和浅层人工神经网络)在处理稀疏数据的分类任务中的效果,并观察数据噪声增加时对这些算法的影响,以及不同参数对分类准确性的提升。研究表明,即使在有限的数据集和嘈杂的环境下,这些经典算法依然具有很好的学习性能。
Sep, 2023
研究提出了在低秩不定核情况下达到线性时间和内存复杂度的 Indefinite Kernel Fisher Discriminant (iKFD) 和 Probabilistic Classification Vector Machine (PCVM),并且利用 Nystr"om 近似提出了一个几乎自由参数的方法来识别地标。在各个领域的几个更大的相似度数据的评估表明,该方法提供了类似的泛化能力,同时对于大规模数据来说易于参数化和快速。
Apr, 2016
本文介绍一种基于非半正定线性相似性的学习算法,用于分类,该算法能够通过最优化距离和相似度函数来在非线性特征空间中学习,该方法得到应用后,在各种数据集上比起现有方法具有更好的效果,而且速度快、防止过拟合和产生非常稀疏的分类器。
Jun, 2012
本文提出了一个基于分布式凸优化和随机化的算法框架和高性能实现,以实现基于核方法的统计模型的海量规模训练,以便有效地利用大数据。
Sep, 2014
本文提出了一种基于随机化的近似核 K-means 簇算法,其利用采样点与数据集中所有点之间的核相似性来近似聚类中心,实现了与传统低秩核近似聚类方案相比更好的聚类性能、更短的运行时间和更小的内存需求,最后利用集成聚类技术进一步提高算法性能。
Feb, 2014
我们展示了标准梯度下降算法训练的深度网络在数学上与核机器学习方法相当,这极大地增强了深度网络权重的解释性,从而导致更好的学习算法。
Nov, 2020