基于多核学习的在线非线性函数逼近,通过联邦学习在分布在不同客户端之间的数据上训练多核模型;提出一种算法框架,允许客户端以可负担的通信成本与服务器进行通信,并利用随机特征近似提出可扩展的在线联邦多核学习算法。实验证明,与其他在线联邦核学习算法相比,该算法具有显著优势。
Nov, 2023
本文提出了一种新的 MKL 框架,通过将每个核定义为一致核的扰动,并为接近一致核的核分配大权重来解决现有算法的各种问题。该框架被集成到用于基于图形的聚类和半监督分类的统一框架中,并在多个基准数据集上得到了实验验证,证实了新框架的优越性。
Jun, 2018
本文将 Multiple Kernel Learning 问题表述为标准的二分类问题,并在保持学习内核正定性的附加约束条件下进行处理,从而使得更好、更可扩展的 MKL 算法能够更容易地利用二分类研究,从而在各个领域中取得更好的性能,并且易于在实践中操作。进行的实验结果表明,所提出的技术虽然简单,但相比于目前的领先 MKL 方法具有明显的优势。
Jun, 2012
多核学习是一种在生物学和生物信息学中用于多组学输入的灵活、有效的方法,并且可以与深度学习架构相竞争,为异构数据集成方法提供了进一步发展和生物数据挖掘研究的方向。
Mar, 2024
该论文综述了现有的图内核方法,包括其应用、软件和数据资源,以及现阶段最先进的图内核进行的实证比较,以解决图形相似度评估问题,进而在分类和回归模型中进行预测。
Nov, 2020
提出了一种基于局部线性分类器组合的新非线性分类器,通过使用许多局部线性核将问题转化为 l1 多核学习问题,并提供了一种可扩展的用于处理流核的通用 MKL 训练算法,从而得到了适应高准确性但较慢的非线性分类器和快速但较低准确性的线性分类器之间的分类器。
Jan, 2024
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
Aug, 2023
通过基于随机投影导出的特征近似核函数,提出了有效地克服核方法计算复杂度的方法,并在图像识别和语音识别等大规模学习问题上成功地比较了核方法和深度神经网络的性能,同时克服了模型调节的困难。
Nov, 2014
本文提出了一种基于随机特征逼近和正交促进的可扩展多内核学习方法以实现所需的非线性学习函数,并发展了自适应多核学习方法以进一步提高动态环境下的性能,这种方法不仅考虑了数据驱动的内核组合学习,还考虑了未知动态方面,并在合成和真实数据集上进行了测试以展示算法的有效性。
Dec, 2017
本文提出了一个基于分布式凸优化和随机化的算法框架和高性能实现,以实现基于核方法的统计模型的海量规模训练,以便有效地利用大数据。
Sep, 2014