二元分类中的挑战
支持向量机(SVM)是一种流行的用于数据分类的核方法,本文提出一种基于最佳子空间的最小距离的新方法,以解决 SVM 存在的时间处理、高维情况下优化过程失败、多类别泛化、不平衡类别和动态分类的问题,并取得了类似的性能改进。
Aug, 2023
我们提出了一种新颖的支持向量机模型,通过在问题表达中引入性能约束来考虑误分类成本。具体而言,我们的目标是寻求具有最大间隔的超平面,使得误分类率低于给定的阈值。通过解决一个具有线性约束和整数变量的二次凸问题来获得最大间隔超平面。我们的实验结果表明,我们的模型可以使用户在一个类别上对误分类率进行控制,并且运行时间可行。
Dec, 2023
我们提出了一种新的多类支持向量机方法,通过考虑两两类别损失,并最大化最小的间隔,实现多类别分类。我们的方法在深度学习中类似于 softmax 的概念,可以作为深度学习中网络参数学习的有效增强。实证评估结果表明,我们的方法在现有的多分类方法上具有明显的优势。
Dec, 2023
支持向量机(SVM)是用于二分类的广泛研究的监督学习模型。半监督支持向量机(S3VMs)通过利用有标签和无标签数据,扩展了传统的 SVM 分类器,旨在在存在无标签数据的情况下最大化样本间的边界,以实现比传统 SVM 更高的准确性和鲁棒性。本文提出了一种新的基于半定规划(SDP)松弛的 S3VMs 分支定界方法。我们应用基于最优性的界限加强方法来限制可行集。箱约束使我们能够包括有效不等式,增强下界。与文献中提供的界限相比,所得到的 SDP 松弛提供了显著更强的界限。至于上界,则利用 SDP 松弛的解定义局部搜索。计算结果突显了该算法的效率,展示其解决数据点数量比文献中的解决数量多 10 倍的实例的能力。
Dec, 2023
通过平滑的稀疏促进正则化的平方铰链损失最小化,研究了支持向量机的训练,并应用了基于主要化最小化方法的快速训练方法,提高了特征选择的性能,并在定量指标(准确率、精确率、召回率和 F1 值)以及计算成本方面表现出良好的性能。
Aug, 2023
本文中,我们探究了在深度学习识别任务中,用 L2-SVMs 替换 softmax 可在 MNIST、CIFAR-10 和面部表情识别等数据集上获得显著提升。
Jun, 2013
本文重新审视和改进了最大化边际的基本分类工具 SVM 的广义界限,并通过近乎匹配的下限补充了新的广义界限,从而几乎解决了 SVM 在边际方面的广义性能。
Jun, 2020
该论文介绍了一种新的和灵活的分析框架,可用于证明任意再生核希尔伯特空间中的支持向量机,并且在独立亚高斯特征和一般有界正交系统家族(例如傅里叶特征)中的特征两个方面都表现出支持向量增殖现象,这些实验未能覆盖。
May, 2023