具有稳定学习规则的增强型 KNN 双支持向量机
在机器学习领域中,数据可能包含称为特权信息(PI)的附加属性,特权信息的主要目的是辅助模型训练,并利用所获得的知识对未知样本进行预测。支持向量回归(SVR)是一种有效的回归模型,然而由于解决一对约束下的凸二次问题(QP),它的学习速度较低。相比之下,双支持向量回归(TSVR)比 SVR 更高效,因为它解决了两个分别受一组约束的 QP。然而,TSVR 及其变种仅在常规特征上进行训练,不使用特权特征进行训练。为了填补这一空白,我们引入了特权信息与学习的 TSVR 融合,并提出了一种名为特权信息双支持向量回归(TSVR+)的新方法。所提出的 TSVR + 中的正则化项捕捉了统计学习理论的本质,并实现了结构风险最小化原则。我们使用过度放宽(SOR)技术来解决提出的 TSVR + 的优化问题,从而增强了训练效率。据我们所知,将特权信息的概念集成到双变量回归模型中是一种新的进展。对 UCI、股票和时间序列数据进行的数值实验证明了所提出模型的优越性。
Dec, 2023
通过使用基于模糊逻辑的方法来处理类别不平衡和有噪声的数据集,对几种基准数据集和合成数据集进行了实验评估,结果显示所提出的 IF-RELSTSVM 和 F-RELSTSVM 模型在性能上优于基准算法,并进行了统计检验以验证所提出算法的显著性。
Sep, 2023
本文介绍了 t-SNE 算法的核化版本,能够将高维数据映射到低维空间并在非欧几里德度量下保留数据点之间的成对距离,可以通过仅在高维空间或在两个空间中使用核技巧来实现,提供了数据点之间关系的新视角,改进了包括使用核方法的分类问题的性能和准确性,并利用多个数据集阐明了 t-SNE 和其核化版本之间的区别,展示了不同类别点的更整洁的聚类。
Jul, 2023
提出了一种新的分类方法,名为信息修正 KNN(IMKNN),通过引入互信息(MI)来提高 K - 最近邻算法(KNN)的性能,并从合作博弈论中的 Shapley 值概念汲取灵感,以优化价值分配。实验结果表明,在不同数据集和评判标准下,IMKNN 始终优于其他方法,突出了其在各种分类任务中的优越性能,凸显了 IMKNN 在增强 KNN 算法能力方面的潜力。
Dec, 2023
本文研究并发现 kNN-MT 的性能下降问题,提出了一种信心增强的 kNN-MT 模型,结合鲁棒训练和两种扰动方式以达到在基准数据集上实现显着改进和更好的鲁棒性的效果。
Oct, 2022
本研究实现四种主流的机器学习算法在十一个数据集上,分析它们的准确性,并且探讨机器学习算法与数据维度之间的关系。
Sep, 2018
双神经网络回归通过训练预测回归目标之间的差异而不是目标本身。该算法通过集成未知数据点的目标与多个已知锚点的差异来解决原始回归问题,其中锚点选择为未知数据点的最近邻,证明在小到中等规模的数据集上表现优于神经网络和最近邻回归。
Oct, 2023
该研究描述了一种更强大的伪标签方法,使用基于嵌入空间距离的 TK-KNN 方法,在保持平衡的伪标记样本集的同时,避免了选择不平衡的示例集合,从而在意图检测中取得了更好的性能。
Oct, 2023
通过实证研究表明,深度学习模型中的深度支持向量(Deep Support Vectors,DSVs)类似于支持向量机(Support Vector Machines,SVM)中的支持向量,从而为解释模型的决策标准提供了一种切实可行的方法。此外,我们的发现表明,可以使用 DSVs 有效地重建模型,类似于 SVM 的过程。代码将会提供。
Mar, 2024
本文提出了一种用于领域自适应的非参数翻译解决方案 “k 最近邻机器翻译(kNN-MT)”,并通过在聚类的基础上通过对比学习的方式构建紧凑网络,提高了检索效率并且在大型数据集上取得了更好或相当的性能表现,同时对于不同领域的通用性很强。
Apr, 2022