最近邻分类的收敛速度
该论文提出了一种改进的 K 近邻分类器,它可以自适应地为每个查询选择 K,该选择取决于每个邻域的属性,因此可能在不同点之间显着变化,并且可以利用条件概率推导推导出一些收敛界限。
May, 2019
通过建立第一个 Kaplan-Meier 基础的最近邻和核生存概率估计的不渐近误差界,我们证明了这些非参数估计的强一致性速率,并且匹配了现有条件 CDF 估计的下限;我们的证明策略还为 Nelson-Aalen 累积风险估计的最近邻和核变体提供了不渐近保证。我们在四个数据集上进行了实验比较这些方法,并发现对于核生存估计器,一个好的核的选择是使用随机生存森林学习的核。
May, 2019
本文通过对 mild assumptions 的研究,提出了 k-NN 回归的高概率有限样本均匀一致收敛率,该率在对数因子下是最优的。本文还证明了 k-NN 回归可以自动适应未知的低内在维度。我们将 k-NN 回归应用到了从噪声观测值中估计函数的水平集和全局最大值方面,得出了新的结果。
Jul, 2017
介绍了第一个针对近邻的样本压缩算法,具有非平凡的性能保证,进一步展示了几乎匹配的困难性下界,提供了对度量空间中基于边界的近邻分类的新见解,并允许我们显著地加强和简化现有的边界定义。
Apr, 2014
本文提出了一类新的分布式统计估计算法,利用分治策略实现,表明分治策略的一个关键利益是健壮性,并建立了这些分布式算法的性能与正态逼近的收敛率之间的联系,并证明了非渐近偏差保证和极限定理,针对中位数估计和最大似然估计进行了例证和性能保证
Apr, 2017
本文对 Kozachenko-Leonenko 估计器在扭曲空间中的微分熵进行了分析,提出了首个关于其性能的均匀上界估计和新的极小化下界估计,并且证明了 KL 估计器在不考虑 H"older 球的平滑参数时,可以达到极小化速率,成为第一个可以明确满足此属性的估计器。
Nov, 2017
本文研究了一个基于样本压缩界限的多类学习算法的贝叶斯一致性,并证明了在度量空间有限两倍维度的情况下,该算法是强贝叶斯一致的,甚至在某些无限维情况下也是连贯的,这是一项有趣的发现,当前存在几个值得研究的问题。
May, 2017