在线最近邻分类
该论文提出了一种改进的 K 近邻分类器,它可以自适应地为每个查询选择 K,该选择取决于每个邻域的属性,因此可能在不同点之间显着变化,并且可以利用条件概率推导推导出一些收敛界限。
May, 2019
介绍了第一个针对近邻的样本压缩算法,具有非平凡的性能保证,进一步展示了几乎匹配的困难性下界,提供了对度量空间中基于边界的近邻分类的新见解,并允许我们显著地加强和简化现有的边界定义。
Apr, 2014
在线分类研究中,研究者利用对未来示例的预测来改进在线学习算法,以减小期望遗憾并提高分类准确性。该研究还证明了当未来示例可准确预测时,在线学习可以与转导式在线学习相媲美,从而对近期基于预测和分布假设的在线算法的研究提供了补充。
May, 2024
利用机器学习预测作为辅助,通过引入预测算法结合最近邻算法,探索未知环境的学习增加变种基于线上图探索问题的研究,证明当预测精度高时算法显著优于其他线上算法,并在预测较差时保持良好保证,提供了与预测误差平稳退化的理论最坏情况下的绑定,并通过计算实验证实了结果,同时还扩展了该概念到鲁棒算法的一般框架,通过在给定算法与最近邻算法之间进行谨慎插值,证明了新的性能边界,既利用特定输入的良好性能,又确立了对任意输入的鲁棒性。
Dec, 2021
介绍了一种与特征尺度无关的在线学习算法,证明了存在依赖于数据中存在的比例而不是绝对尺度的遗憾界,从而不需要预处理数据,减少了测试时间和测试空间复杂度,并提高了算法的稳健性。
Aug, 2014
基于顺序熵,确立了在线回归的最佳速率,发现最佳速率具有类似于独立同分布 / 统计学习情况的相变。此外,展示了一种享有建立的最佳速率的通用预测器和一种设计在线回归算法且计算高效的方法。
Feb, 2014
通过简单修改最近邻分类器,我们展示了一个强 Bayes 一致的学习器,优于 k-NN 分类器,并在限制样本大小和算法时间方面具有较大的优势,获得了令人鼓舞的实验结果。
Jul, 2014
本文通过渐近分析导出了带权最近邻分类器超额风险(遗憾)的渐近展开式,并找到了非负权重的渐近最优向量,表明该分类器的遗憾与未加权的 k - 最近邻分类器相比,仅与特征向量的维度有关。同时,在更大的维度上,权重最优。最后,我们还证明,当允许使用负权重时,强平滑假设是可能提高收敛速度的。本文的结果得到了在模拟数据和真实数据集上的实证对比支持。
Jan, 2011