提出了一种基于局部线性分类器组合的新非线性分类器,通过使用许多局部线性核将问题转化为 l1 多核学习问题,并提供了一种可扩展的用于处理流核的通用 MKL 训练算法,从而得到了适应高准确性但较慢的非线性分类器和快速但较低准确性的线性分类器之间的分类器。
Jan, 2024
本文提出了一种新的谱范数方法,用于多任务学习,假设任务被分成不同的群组,每个群组具有相似的权重向量,并演示其在合成数据及 IEDB MHC-I 结合数据集上的优秀表现。
Sep, 2008
本文提出了一种新的基于局部多核学习和门函数的一类分类算法,用于异常检测,与现有算法相比,该算法在 25 种基准数据集上的性能明显更好,支持向量更少。
May, 2018
本研究考虑具有多个内核的不重叠卷积神经网络的参数恢复,当输入服从高斯分布且样本量足够大时,对于大多数流行的激活函数,如 ReLU,Leaky ReLU,Squared ReLU,Sigmoid 和 Tanh,我们展示了该 CNN 的平方损失在全局最优附近的吸引盆中是局部强凸的,所需样本复杂度与输入维度成比例且多项式内核数量和参数的条件数,同时我们还展示了张量方法能够将参数初始化为局部强凸的区域,因此,对于大多数光滑的激活函数,张量初始化后的梯度下降保证在输入维度、精度对数和其他因素上是多项式数量级的时间内收敛到全局最优解。据我们所知,这是第一份提供具有多个内核的 CNN 的恢复保证的工作,其样本复杂度和计算复杂度都是多项式的。
Nov, 2017
本文针对使用在 SVM 分类器中的学习核在多任务和终身学习场景下的问题,提出了关于大边界分类器误差的泛化界限。我们的结果表明,在学习的核族群满足条件的情况下,在同时解决多个相关任务时比单个任务学习更为有效。特别是,随着观察到的任务数量的增加,假设在所考虑的核族群中存在一种能够在所有任务上产生低逼近误差的核函数,则与学习这个好的核函数相关的额外开销后会消失,学习复杂度将收敛到当学习者掌握这个好的核函数时的学习复杂度。
Feb, 2016
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
Aug, 2023
非凸多视角表示学习问题最近在机器学习领域中备受关注,本文提出一种由简单随机梯度下降算法有效求解的非凸公式,并且通过扩散近似建立起渐近全局收敛速率的理论证明。
Feb, 2017
本文提出了一种基于最小最大优化问题的 SVD-QCQP 原始 - 对偶算法来优化半可分离核函数,极大地降低了计算复杂度,并且在分类和回归中提供了有效的实现。当应用于基准数据时,该算法表现出了显著的精度改进潜力,而计算时间与神经网络和随机森林等典型方法相似甚至更好。
Apr, 2023
多核学习是一种在生物学和生物信息学中用于多组学输入的灵活、有效的方法,并且可以与深度学习架构相竞争,为异构数据集成方法提供了进一步发展和生物数据挖掘研究的方向。
Mar, 2024
本文提出了一种新的本地样本加权多核聚类(LSWMKC)模型,它在核空间中构建一个共识判别力亲和力图,揭示了潜在的本地结构,并输出一个最优的邻域核,具有自然稀疏属性和清晰的块对角结构。此外,LSWMKC 隐式地优化了不同邻居在相应样本上的自适应权重,并表现出比现有的基于核或图形的聚类算法更好的本地流形表示。
Jul, 2022