插值分类器的快速学习率
神经网络在模式识别和分类问题中的成功表明其具备与支持向量机(SVMs)或提升分类器等其他传统分类器不同的特性。本文研究了基于神经网络的插件分类器在二元分类设置中的性能,以其超出风险的度量为基准。相较于文献中的典型设置,我们考虑了更一般的实践场景,该场景在两个方面与实际相似:首先,要近似的函数类别包括了 Barron 函数作为一个合适的子集;其次,构建的神经网络分类器是一个替代损失的最小化者,因此可以轻松应用基于梯度下降的数值优化方法。我们研究了考虑的函数类别很大,最优速率不可能更快于 n 的负一次方,但这是一个无关维度的速率情景,可以利用神经网络的逼近能力。特别地,我们分析了神经网络的估计和逼近特性,以获得超出风险的无关维度、均匀收敛速率。最后,我们证明所获得的速率实际上是最小最大优化的,尽管存在一个对数因子;而最小最大下界则展示了这一情景中边际假设的效果。
Sep, 2023
本文证明了针对多类别 plug-in 分类器的新的快速学习率,这些分类器是从指数强混合数据或由收敛漂移分布生成的数据中进行训练的。这些学习率是在 Tsybakov 的边际假设的多类别版本下获得的,并且不依赖于类别数。与针对二分类情况下最小二乘 SVM 的先前工作不同,我们的结果保留了 iid 情况下的最优学习率。
Aug, 2014
研究非有界并且存在重尾分布的损失函数的快速学习率,并引入了两个新的条件,可以得到比 $O (n^{-1/2})$ 更快的学习速率,例如在 $k$- 均值聚类问题中得到的结果。
Sep, 2016
提出了一种基于非参数估计的回归函数的主动学习算法,并对其在广泛的基础分布类上可达到的推广误差收敛速率提供了概率界限,同时证明了最小化下限,展示了获得的速率几乎是紧密的。
Apr, 2011
研究了在联合过程是给定记忆长度的马尔可夫链的情况下,通过插件(或最大似然)估计算法来估算两个离散过程 {Xn} 和 {Yn} 之间的有向信息速率的问题。插件估计器被证明是渐近高斯的,并在适当条件下以最优速率 O(1/√n)收敛;这是第一个已被证明可以达到此速率的估计器。同时,该研究发现估算有向信息速率的问题与执行关于两个过程之间因果关系存在的假设检验问题之间存在重要联系。 这些结果有助于设计实际的似然比检验,以检验因果影响的存在或不存在。
Jul, 2015
针对二元分类问题,本文对带有铰链损失和高斯径向基核的支持向量机建立了学习速率,这些速率是基于两个假设,即 Tsybakov 的噪声假设和一个新的几何噪声条件,前者用于评估小的估计误差,后者用于限制近似误差。与以前用于限定近似误差的概念不同,本文提出的几何噪声条件不需要任何平滑性假设。
Aug, 2007
本文提出了一种在数据为超收缩分布、存在不可避免的敌对噪声情况下,基于平方和框架的线性模型学习算法,该算法的收敛速度与扰动的比例成幂率关系,能达到理论最优收敛速度且在先前研究中未被发现。
Jun, 2020
通过使用带有二次希尔伯特范数的凸经验风险正则化的学习方法,我们考虑了线性预测器和非线性预测器的设置,同时包括正定核。针对这类损失,作者提出了一种偏差 - 方差分解思路,并通过改善偏差项、方差项或二者同时来快速逼近渐进速率,从而实现在减小自相近损失假设下的非高斯预测器更快速的收敛效果。
Feb, 2019
本文研究插值法估计器,对于一个或多个连续概率密度的广泛积分函数进行分析,证明了该估计器在 $d$ 维单位立方体上的密度函数收敛于速率 $O (n^{-rac {eta}{eta + d}})$, 并且估计器关于其均值的集中呈指数级,而大部分先前的相关研究仅证明估计器的预期误差界限。
Mar, 2016