使用线性支持向量机的深度学习
通过平滑的稀疏促进正则化的平方铰链损失最小化,研究了支持向量机的训练,并应用了基于主要化最小化方法的快速训练方法,提高了特征选择的性能,并在定量指标(准确率、精确率、召回率和 F1 值)以及计算成本方面表现出良好的性能。
Aug, 2023
我们提出了一种新的多类支持向量机方法,通过考虑两两类别损失,并最大化最小的间隔,实现多类别分类。我们的方法在深度学习中类似于 softmax 的概念,可以作为深度学习中网络参数学习的有效增强。实证评估结果表明,我们的方法在现有的多分类方法上具有明显的优势。
Dec, 2023
本文提出了 L-Softmax loss 作为一种广义的大边际 softmax(L-Softmax)损失函数,可以显式地鼓励所学特征的类内紧密性和类间可分性,并且能够调整想要的边际并避免过拟合,并在四个基准数据集上进行了广泛实验,结果表明使用 L-Softmax 且深度学习的特征更具有区分度,从而大大提高了各种视觉分类和验证任务的性能。
Dec, 2016
提出了一种新颖的损失函数 (SV-Softmax), 该函数从支持向量的角度来指导深度卷积神经网络的学习,使得因难例引起的歧义和其他类别的歧义都得以解决,产生了更具区分性的特征.
Dec, 2018
支持向量机(SVM)是用于二分类的广泛研究的监督学习模型。半监督支持向量机(S3VMs)通过利用有标签和无标签数据,扩展了传统的 SVM 分类器,旨在在存在无标签数据的情况下最大化样本间的边界,以实现比传统 SVM 更高的准确性和鲁棒性。本文提出了一种新的基于半定规划(SDP)松弛的 S3VMs 分支定界方法。我们应用基于最优性的界限加强方法来限制可行集。箱约束使我们能够包括有效不等式,增强下界。与文献中提供的界限相比,所得到的 SDP 松弛提供了显著更强的界限。至于上界,则利用 SDP 松弛的解定义局部搜索。计算结果突显了该算法的效率,展示其解决数据点数量比文献中的解决数量多 10 倍的实例的能力。
Dec, 2023
我们提出了一种新颖的支持向量机模型,通过在问题表达中引入性能约束来考虑误分类成本。具体而言,我们的目标是寻求具有最大间隔的超平面,使得误分类率低于给定的阈值。通过解决一个具有线性约束和整数变量的二次凸问题来获得最大间隔超平面。我们的实验结果表明,我们的模型可以使用户在一个类别上对误分类率进行控制,并且运行时间可行。
Dec, 2023
本文通过 Gated Recurrent Unit 对 2013 年京都大学蜜罐系统的网络流量数据进行二进制分类,将线性支持向量机替换为 GRU 模型最终输出层的 Softmax 函数, cross-entropy 函数也将替换为基于边缘的函数,结果显示 GRU - SVM 模型的性能相对较高,并且 SVM 在预测时间上优于 Softmax。
Sep, 2017