插值和 SVM 之间的新等效性:核和结构化特征
支持向量机(SVM)是用于二分类的广泛研究的监督学习模型。半监督支持向量机(S3VMs)通过利用有标签和无标签数据,扩展了传统的 SVM 分类器,旨在在存在无标签数据的情况下最大化样本间的边界,以实现比传统 SVM 更高的准确性和鲁棒性。本文提出了一种新的基于半定规划(SDP)松弛的 S3VMs 分支定界方法。我们应用基于最优性的界限加强方法来限制可行集。箱约束使我们能够包括有效不等式,增强下界。与文献中提供的界限相比,所得到的 SDP 松弛提供了显著更强的界限。至于上界,则利用 SDP 松弛的解定义局部搜索。计算结果突显了该算法的效率,展示其解决数据点数量比文献中的解决数量多 10 倍的实例的能力。
Dec, 2023
支持向量机(SVM)是一种流行的用于数据分类的核方法,本文提出一种基于最佳子空间的最小距离的新方法,以解决 SVM 存在的时间处理、高维情况下优化过程失败、多类别泛化、不平衡类别和动态分类的问题,并取得了类似的性能改进。
Aug, 2023
本文介绍了 Relevance Vector Machine,它是一种概率模型,其功能形式相当于 Support Vector Machine,提供完整的预测分布,并且需要更少的核函数。我们展示了如何通过变分推理在完全贝叶斯范式内构建和解决 RVM,并给出超参数的后验分布。我们用人工合成和实际例子证明了变分 RVM 的实用性和性能。
Jan, 2013
通过平滑的稀疏促进正则化的平方铰链损失最小化,研究了支持向量机的训练,并应用了基于主要化最小化方法的快速训练方法,提高了特征选择的性能,并在定量指标(准确率、精确率、召回率和 F1 值)以及计算成本方面表现出良好的性能。
Aug, 2023
本文研究了使用支持向量机(SVM)进行函数数据分析的问题,着眼于曲线判别问题,展示了如何定义简单的内核函数以考虑数据的函数性质并导致一致的分类,实验表明考虑问题的函数特征对数据的分析是有益的。
May, 2007
给定线性支持向量机(SVM),提出了一种特征选择算法,以实现有监督或无监督的学习。算法能够在确定性和随机化的情况下运行,并且在特征空间中的误差得到保证,从而保证了与完整的特征空间相当的概括能力。在真实世界的数据集上的实验结果表明,该方法比之前的最佳方法更加高效。
Jun, 2014
本文提出了一种利用不确定核的支持向量机分类方法,该算法可以同时计算支持向量和代理核矩阵,保持问题凸性并可以使用梯度投影或解析中心切割平面方法有效地求解较大的问题,在经典数据集上与其他方法的性能比较表明本技术的性能优于其他方法。
Apr, 2008