本文介绍了用于训练核字典学习问题中的缩减非线性表示的新算法。我们提出了一种更贴近字典学习精神的方法,在 KDL 过程中直接优化核向量,使用梯度下降步骤。我们通过三个数据集的实验证明,尽管使用少量核向量,我们的算法能够提供更好的表示,并且减少了执行时间。
Jul, 2023
本文介绍了一种基于 MapReduce 编程范式实现的并行计算算法,在树内核学习方法中应用广泛的交叉子树核计算的顺序算法基础上,优化计算时间,扩展了算法的适用性。实验表明,并行算法在树语言数据集上的计算效率远高于序列算法。
May, 2023
通过特征映射来逼近非线性内核,在减少支持向量机分类器和其他内核学习算法的训练和测试时间的应用方面引起了人们的广泛兴趣。本文基于调和分析的经典结果,提出了点积内核的低扭曲嵌入到线性欧几里得空间中,并使用该结果定义随机特征映射到显式低维欧几里得空间,在其中本地点积提供对点积内核的逼近,自信度很高。
Jan, 2012
本文介绍了 t-SNE 算法的核化版本,能够将高维数据映射到低维空间并在非欧几里德度量下保留数据点之间的成对距离,可以通过仅在高维空间或在两个空间中使用核技巧来实现,提供了数据点之间关系的新视角,改进了包括使用核方法的分类问题的性能和准确性,并利用多个数据集阐明了 t-SNE 和其核化版本之间的区别,展示了不同类别点的更整洁的聚类。
本研究提出了一种控制子树用于表示图形特征的复杂性的新核函数,并在分类有毒和非有毒分子方面使用支持向量机进行了实验验证。
Sep, 2006
通过深层次图对齐核(Deep Hierarchical Graph Alignment Kernels)解决了图卷积核函数在分解图形成非同构子结构并进行比较时忽视隐含相似性和拓扑位置信息所限制性能的问题,理论分析保证了该方法在复制核希尔伯特空间中为半正定且具有线性可分性,在各种基准数据集上与最先进的图卷积核函数进行比较证明了 DHGAK 的有效性和高效性。
May, 2024
本文提出了一种新的核函数族,用于处理时间序列数据(尤其是语音数据),该方法借鉴了动态时间规整(Dynamic Time Warping)的基本操作,并采用动态规划技术来计算最优序列,该核函数是正定的,并且在语音识别任务中表现出令人鼓舞的结果。
Oct, 2006
我们提出了一种新颖的扩散方案,用于在网络上进行基于内核的在线学习,通过使用 Random Fourier Features,将解决方案近似为固定大小的向量,并提供了渐近收敛和网络遗憾的限制条件。
Mar, 2017
本文提出了四种改进方法,包括将 Kernel Thinning 直接应用于目标 Reproducing Kernel Hilbert Space 以获得更紧密的无维度保证,使用分数功率核对于不平滑的核可以获得优于蒙特卡罗的保证,并且将 KT 应用于目标和功率核的总和可以同时继承两种方法的保证,在多维度和压缩挑战性微分方程后验的情况下,可以显着减少集成误差。
Oct, 2021
本文提出了一种基于最新的隔离分布核 (IDK) 的聚类算法 TIDKC,它利用分布核对轨迹相似性进行测量和聚类,以解决传统和深度学习距离度量方法的局限性。通过在 7 个大型实际轨迹数据集上进行广泛评估,结果证实 IDK 能够更有效地捕捉轨迹中的复杂结构,并且 TIDKC 相比现有的轨迹聚类算法具有更好的聚类性能和效率。
Oct, 2023