本文通过对 mild assumptions 的研究,提出了 k-NN 回归的高概率有限样本均匀一致收敛率,该率在对数因子下是最优的。本文还证明了 k-NN 回归可以自动适应未知的低内在维度。我们将 k-NN 回归应用到了从噪声观测值中估计函数的水平集和全局最大值方面,得出了新的结果。
Jul, 2017
本文在深度非参数回归的理论研究中提出了一种松弛假设,证明了数据的 Effective Minkowski Dimension 可以影响训练样本量的复杂度,并在高斯随机场设计数据集上验证了理论的有效性。
Jun, 2023
本文提出了一种廉价的方法来学习有效的差异度量函数,该函数可用于 $k$- 最近邻分类。方法通过仅学习标记对象的变换来提高分类准确性,同时保持查询对象在原始坐标系中不变。通过解决标准岭回归问题,可以有效地学习变换,且速度比现有方法快两个数量级以上。此外,该方法消除了优化 “负” 对象对的开销,并具有减少数据中心极性的理论基础。
Jun, 2018
本研究提出了一种在机器人学习中处理非欧几里德流形数值数据的本质方法,该方法通过在流形上选择适当的概率分布,并将其参数作为预测变量的函数进行非参数化估计,同时结合核函数的局部似然方法,实现了比投影算法更好的预测准确性。
Oct, 2023
本文研究了多元局部多项式回归对于低维流形上回归函数的非参数估计问题,揭示了其在适应局部光滑低维结构方面所表现出的优异性以及达到了 Sobolev 空间中回归函数最优的收敛速度。
Aug, 2007
该论文提出了一种改进的 K 近邻分类器,它可以自适应地为每个查询选择 K,该选择取决于每个邻域的属性,因此可能在不同点之间显着变化,并且可以利用条件概率推导推导出一些收敛界限。
May, 2019
研究了度量空间中近似最近邻的问题,其中查询点被限制在低重复维度的子空间上,而数据则是高维的。我们展示了尽管数据是高维的,这个问题仍能得到有效的解决。
Jul, 2010
本文提出了一种简单的,能够使权重最优化的局部加权回归 / 分类方法,并能够为需要估计值的每个数据点高效地找到权重和最优化的邻居数量,从而在多个数据集上展示了比标准局部加权方法更优异的性能表现。
Jan, 2017
本文介绍一种新的参数化定向 metric 学习方法,通过学习数据流形上的平滑 metric 矩阵函数,将本地度量作为区域不同点的锚定点上定义的基本度量的线性组合来学习,并应用 manifold 正则化来使学习到的 metric 矩阵函数沿着数据流形的测地线平滑变化,表现出极好的预测能力和可扩展性,并优于多种全局和局部的最先进的度量学习方法以及具有自动内核选择的支持向量机 (SVM)。
Sep, 2012
在高维背景下,本文通过对数据的随机压缩版本进行训练和全秩度量,在距离度量学习的错误方面提供了理论保证,这不依赖于环境维度,同时假定数据来自有界支持并自动在存在良好几何结构时收缩。合成和真实数据集的实验结果支持我们在高维背景下的理论发现。
Sep, 2023