- ICML多个局部线性核机器
提出了一种基于局部线性分类器组合的新非线性分类器,通过使用许多局部线性核将问题转化为 l1 多核学习问题,并提供了一种可扩展的用于处理流核的通用 MKL 训练算法,从而得到了适应高准确性但较慢的非线性分类器和快速但较低准确性的线性分类器之间 - 修复 NTK:从神经网络线性化到精确的凸规划
该研究旨在解释门控 ReLU 网络的凸规划问题并建立其与神经切向核(NTK)之间的联系,通过迭代重新加权来提高 NTK 引导的权重以获得最优的多核学习(MKL)核,该核等同于凸规划问题的解,并提供了对最优核的预测误差的分析结果,并通过群套索 - MKL-$L_{0/1}$-SVM
该论文介绍了一种用于支持向量机(SVM)的多核学习框架(缩写为 MKL)以及使用 $(0, 1)$ 损失函数的方法。通过给出一些一阶次优性条件,进而设计了一种快速 ADMM 求解器来处理非凸和非光滑优化问题。对合成和真实数据集进行了广泛的数 - KDD铁路道岔故障预测的样本自适应多核学习
本研究采用多源数据,构建数据集,并结合基于多核学习算法的维护点故障预测模型,以提高悉尼列车上铁路点的可靠性和准确性。
- IJCAI基于图聚类和半监督分类的自加权多核学习
本文提出了一种新的 MKL 框架,通过将每个核定义为一致核的扰动,并为接近一致核的核分配大权重来解决现有算法的各种问题。该框架被集成到用于基于图形的聚类和半监督分类的统一框架中,并在多个基准数据集上得到了实验验证,证实了新框架的优越性。
- AAAI带最优图的统一谱聚类
本文提出了一种改进的光谱聚类算法,旨在解决预定义的相似性图可能不是合适的聚类结果,并且传统离散化解决方法与光谱解决方案可能不一致的问题,并引入多核学习来解决如何选择最适合特定数据集的核的应用挑战。实验结果表明,该方法相比于现有的聚类方法具有 - AAAI相似性和聚类的双生学习:统一的核方法
为解决相似性测量困难及非线性相似性未被充分考虑等问题,在核空间中提出一种模型,同时学习聚类指示器矩阵和相似度信息,并通过多核学习能力进一步扩展模型以选择最合适的内核。该模型可自动完成三个子任务以获得最佳聚类解决方案。
- 基于增强多核学习的第一人称活动识别
本文提出了一种基于数据驱动的框架来选择和组合一些特征及其核,在第一人称视角的活动识别中,采用多核学习 (MKL) 和基于 MKL 的 Boosted MKL 方法能够有效提高识别效果。
- 本地化多核学习 —— 一种凸优化方法
本文提出了一种基于局部策略的多核学习方法,采用凸优化算法和 Fenchel 对偶表示,对于应用于计算生物学和计算机视觉等应用领域的真实数据集,相比全局和非凸局部策略,此方法能够获得更高的预测准确性。
- 多视角学习调查
本文提出了多种有效的多视角学习方法,并将它们分为三类:共同训练,多核学习和子空间学习,并利用共识原则或互补原则来确保多视角学习的成功。
- 多核学习中的稀疏性
探讨了基于经验风险惩罚的多核学习问题。它综合考虑了经验 $L_2$ 范数和核引起的再生核希尔伯特空间(RKHS)范数及其正则化参数的数据驱动选择的复杂度惩罚。主要关注的是当核心总数很大但仅需要较少数量的核心来表示目标函数时,该问题是稀疏的情 - 面向大数据的超高维特征选择
本文提出了一种新的自适应特征缩放方案用于大数据上的超高维特征选择,解决了激活大量特征时优化速度缓慢的问题,采用特征生成方法迭代激活一组特征并通过多重核学习子问题得到最优解,通过加速近端梯度算法在原始形式中求解多重核学习子问题并采用缓存技巧加 - ICML二阶段多核学习的二元分类框架
本文将 Multiple Kernel Learning 问题表述为标准的二分类问题,并在保持学习内核正定性的附加约束条件下进行处理,从而使得更好、更可扩展的 MKL 算法能够更容易地利用二分类研究,从而在各个领域中取得更好的性能,并且易于 - 大规模多核学习的随机镜像下降算法
研究了学习如何线性组合多个核的问题,并基于学习的核来学习一个好的预测器;针对多个核的组合,提出了一种随机化的镜像下降算法,利用低方差估计梯度,通过重要性采样估计,发现数据分布之间的关系,对于一个特定的核的情况,可以采样而不必重复观察,并提出 - 特征选择的广义 Fisher 分数
该论文提出了广义 Fisher 评分方法和应用多核学习和混合整数规划技术来解决特征选择问题,该方法在基准数据集上优于 Fisher 评分方法和其他现有的特征选择方法。
- 结构化稀疏性与泛化能力
本文介绍了一种基于数据相关性的一般化界限,适用于许多实现了结构稀疏性限制的正则化算法。该界限可以应用于标准的平方范数正则化、套索 (Lasso)、组套索 (group Lasso)、一些具有重叠组的组套索版本、多核学习 (multiple - Lp 范数多核学习的本地 Rademacher 复杂度
本文针对不同特征映射的多核学习,推导出其本地 Rademacher 复杂度的上限,提供了比全局方法更紧致的超限风险边界,并在 1<=p<= 无穷的所有情况下进行了分析。作者还通过推导获得了 O (n^-alpha/(1+alpha)) 的快 - 通过分层核学习进行高维非线性变量选择
研究的主要目标是解决高维非线性变量选择的问题,提出了一种基于多核学习框架和有向无环图的核函数选择方法,能够以多项式时间选择核函数,具有高预测性能。
- 使用分层多核学习探索大型特征空间
使用正定核函数和稀疏奖励惩罚来实现高维特征空间中的多核学习,从而在非线性变量选择中取得卓越的预测性能。