最近邻分类的参数局部度量学习
本文提出了一种基于连续凸损失优化的简单优雅方法,用于线性距离度量学习,并针对不同的噪声模型推导了相应的损失函数。研究结果表明,即使数据存在噪声,只要样本充足就可以学习到地面事实线性度量,并提供相应的样本复杂度限制。此外,我们还提出了一种有效地将学习模型截断为低秩模型的方法,该方法可证明在损失函数和参数方面都能保持准确性,这是该领域首次出现这种结果。实验结果表明了理论结果的正确性。
Jun, 2023
本篇论文提出一种新的核函数以及一种新的编辑相似性模型,可以更好地优化距离和相似度函数,提高 k 近邻算法的性能,并在学习相似性时考虑到泛化能力与算法的稳定性, 解决了当前度量学习方法的局限性,为特征向量和结构化对象(如字符串或树)的度量学习提供了新方法。
Jul, 2013
本文提出了一个新的两阶段度量学习算法,首先通过计算到一组固定锚点的相似度将每个学习实例映射到概率分布,然后在关联的统计流形上定义输入数据空间上的 Fisher 信息距离,这在输入数据空间中引入了一组具有独特特性的距离度量,不像核化度量学习,我们不需要要求相似度度量是半正定的,而且也可以被解释为具有良好定义的距离逼近的局部度量学习算法。我们在多个数据集上评估了其性能,它明显优于其他度量学习方法和支持向量机(SVM)。
May, 2014
从第一原则出发,我们重新审视了从数据中学习欧几里得度量的任务,并将其表述为一个非常简单的优化问题。我们的解法具有很多优点,包括具有欧几里得几何吸引力的正定矩阵的里曼几何,易于解释和计算速度快等。在标准基准数据集上,我们的封闭形式解决方案始终达到更高的分类准确性。
Jul, 2016
研究在线非参数回归算法,可以学习回归函数平滑的方向;基于回归函数梯度外积矩阵 G,学习 Mahalanobis 度量(可以自适应 G 矩阵的有效秩),同时考虑到 G 的频谱,限制在相同数据序列上的遗憾;作为分析的初步步骤,将 Hazan 和 Megiddo 的非参数在线学习算法扩展,使其能够竞争相对于任意 Mahalanobis 度量计量 Lipschitzness 的函数。
May, 2017
本文介绍一种基于非半正定线性相似性的学习算法,用于分类,该算法能够通过最优化距离和相似度函数来在非线性特征空间中学习,该方法得到应用后,在各种数据集上比起现有方法具有更好的效果,而且速度快、防止过拟合和产生非常稀疏的分类器。
Jun, 2012
本文提出了一种非线性局部度量学习方法(NLML),利用局部度量学习和深度神经网络的优点来学习多组非线性转换,通过在转换后的特征子空间中强制正面行人图像对的距离与负面对距离之间的边界,从而有效地利用识别信息,本文通过在公共数据集上进行实验,证明了该方法在人物重新识别方面取得了最先进的结果。
Nov, 2015
本文提出了一种新的度量学习方法,将其框架构建为学习一种稀疏组合的本地判别度量,这种度量可以从训练数据中生成,从而可以自然地推导出全局、多任务和本地的度量学习公式。通过数理分析和实验验证,本方法比现有方法具有更少的参数和更好的可扩展性,从而提高了分类性能。
Apr, 2014
本文系统地综述了度量学习的前沿研究进展,着重分析了 Mahalanobis 距离度量学习、非线性度量学习、局部度量学习等新近涌现的强大替代方法,讨论了对于结构化数据的度量学习中仍存在的挑战,旨在给出度量学习近年来的发展方向。
Jun, 2013