kNN 分类器对未知非对称标签噪声具有快速识别率
本文通过对 mild assumptions 的研究,提出了 k-NN 回归的高概率有限样本均匀一致收敛率,该率在对数因子下是最优的。本文还证明了 k-NN 回归可以自动适应未知的低内在维度。我们将 k-NN 回归应用到了从噪声观测值中估计函数的水平集和全局最大值方面,得出了新的结果。
Jul, 2017
本文提出了一种在数据为超收缩分布、存在不可避免的敌对噪声情况下,基于平方和框架的线性模型学习算法,该算法的收敛速度与扰动的比例成幂率关系,能达到理论最优收敛速度且在先前研究中未被发现。
Jun, 2020
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征 - 标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征 - 标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失 1(否则为 0)。预测质量通过计算有限时间视野 T 上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了 Ben-David 等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023
我们研究了二次预测误差方法,即非线性最小二乘法,针对一类满足一定可辨识条件的时变参数预测模型。通过利用依赖数据学习的现代工具,我们提供了这种方法在非线性参数化模型类的更一般设置下的首个速率最优的非渐近分析。此外,我们展示了我们的结果可应用于一类可辨识的自回归滑动平均(ARMA)模型,从而导致了 ARMA 模型鉴别的首个最优非渐近速率。
Apr, 2024
针对二元分类问题,本文对带有铰链损失和高斯径向基核的支持向量机建立了学习速率,这些速率是基于两个假设,即 Tsybakov 的噪声假设和一个新的几何噪声条件,前者用于评估小的估计误差,后者用于限制近似误差。与以前用于限定近似误差的概念不同,本文提出的几何噪声条件不需要任何平滑性假设。
Aug, 2007
本文研究了在后验漂移模型下,基于不同分布的观测数据的非参数分类问题中的迁移学习,首先构建了一个速率最优的两样本加权 K-NN 分类器并证明了收敛速率下限,接着提出了一种数据驱动的自适应分类器,证明了其能够同时在大量参数空间上实现接近最优速率,并给出了仿真研究和实际数据应用。同时,本文还考虑了多个源分布的情况。
Jun, 2019
本研究旨在探究在高维线性回归模型的情况下,不了解回归参数稀疏性和设计分布对解释方差等因素的估计最小风险的影响,获得了在回归参数稀疏性不明确的情况下最小风险同时达到 logloss 的自适应程序,同时发现设计分布的了解对解释方差的估计至关重要。
Feb, 2016
本文对 Kozachenko-Leonenko 估计器在扭曲空间中的微分熵进行了分析,提出了首个关于其性能的均匀上界估计和新的极小化下界估计,并且证明了 KL 估计器在不考虑 H"older 球的平滑参数时,可以达到极小化速率,成为第一个可以明确满足此属性的估计器。
Nov, 2017
该研究针对训练样本标签随机出错的分类问题,提出一种新的判别方法:通过对杂质标签的最大去噪实现真实类别条件分布的识别,其基础概念是相互不可约的真实类别条件分布,另外,相关实验表明,该方法在标杆数据和核粒子分类问题上具有有效性。
Mar, 2013