最优边际分布机器
本文介绍了基于边缘分布优化的大边缘分布机(Large margin Distribution Machine,LDM)学习算法,提高了支持向量机算法的泛化性能,该方法通过边缘分布的一阶和二阶统计量,即边缘均值和方差来表征模型,且其在理论和实验上的优越性得到了证明。
Nov, 2013
本文提出的可扩展 ODM 方法,在拥有非线性内核的情况下,引入了分布感知分区方法以使得局部训练集更容易逐渐逼近全局最优解,并在使用线性内核时,利用了通信高效的 SVRG 算法来进一步加速训练进程。大量实验证明,该提出的方法具有高度的计算效率,几乎不会影响泛化性能。
May, 2023
本文重新审视和改进了最大化边际的基本分类工具 SVM 的广义界限,并通过近乎匹配的下限补充了新的广义界限,从而几乎解决了 SVM 在边际方面的广义性能。
Jun, 2020
我们提出了一种新的多类支持向量机方法,通过考虑两两类别损失,并最大化最小的间隔,实现多类别分类。我们的方法在深度学习中类似于 softmax 的概念,可以作为深度学习中网络参数学习的有效增强。实证评估结果表明,我们的方法在现有的多分类方法上具有明显的优势。
Dec, 2023
支持向量机(SVM)是用于二分类的广泛研究的监督学习模型。半监督支持向量机(S3VMs)通过利用有标签和无标签数据,扩展了传统的 SVM 分类器,旨在在存在无标签数据的情况下最大化样本间的边界,以实现比传统 SVM 更高的准确性和鲁棒性。本文提出了一种新的基于半定规划(SDP)松弛的 S3VMs 分支定界方法。我们应用基于最优性的界限加强方法来限制可行集。箱约束使我们能够包括有效不等式,增强下界。与文献中提供的界限相比,所得到的 SDP 松弛提供了显著更强的界限。至于上界,则利用 SDP 松弛的解定义局部搜索。计算结果突显了该算法的效率,展示其解决数据点数量比文献中的解决数量多 10 倍的实例的能力。
Dec, 2023
支持向量机(SVM)是一种流行的用于数据分类的核方法,本文提出一种基于最佳子空间的最小距离的新方法,以解决 SVM 存在的时间处理、高维情况下优化过程失败、多类别泛化、不平衡类别和动态分类的问题,并取得了类似的性能改进。
Aug, 2023
基于分类的方法在异常检测中十分有效,本论文提出了一种分布稳健的概率约束模型,利用核函数的方法来分类难以分离的数据集,并且在验证中显示了该模型的鲁棒性和优越性。
Dec, 2023
我们提出了一种新颖的支持向量机模型,通过在问题表达中引入性能约束来考虑误分类成本。具体而言,我们的目标是寻求具有最大间隔的超平面,使得误分类率低于给定的阈值。通过解决一个具有线性约束和整数变量的二次凸问题来获得最大间隔超平面。我们的实验结果表明,我们的模型可以使用户在一个类别上对误分类率进行控制,并且运行时间可行。
Dec, 2023
本文介绍了 Relevance Vector Machine,它是一种概率模型,其功能形式相当于 Support Vector Machine,提供完整的预测分布,并且需要更少的核函数。我们展示了如何通过变分推理在完全贝叶斯范式内构建和解决 RVM,并给出超参数的后验分布。我们用人工合成和实际例子证明了变分 RVM 的实用性和性能。
Jan, 2013