随机特征回归的泛化误差:精确渐近性和双下降曲线
深度学习模型参数通常大于所需,然而其测试误差在过拟合阈值附近有极值和下降,在过参数化区间反而下降,神经切向核模型可以提供有关真实神经网络的细节。
Aug, 2020
近期的机器学习进展通过使用过参数化的模型训练到接近训练数据的插值来实现。 通过双下降现象的展示,已经证明参数数量是模型复杂性和泛化能力的劣质指标。 这引发了一个问题,即了解参数化对这些模型的性能的影响。 本文以随机特征岭回归(Random Feature Ridge Regression)为例进行调查。
Mar, 2024
研究发现,通过过度参数化,深度神经网络能够在插值训练数据的同时实现卓越的泛化性能,并且在测试误差上具有双下降现象,该现象可以通过集成平均估计器进行抑制。
Mar, 2020
本文研究深度学习中的双下降现象,即当训练样本数 N 接近模型参数数 P 或者输入维度 D 时,神经网络的泛化误差会出现峰值,本文提供了理论解释,并探讨了非线性对此现象的影响及正则化方法的应用。
Jun, 2020
本文针对过度参数的最小范数线性估计器的双下降现象,借助一种称为代理随机设计的特殊确定点过程进行研究,该代理设计允许对估计器的平均平方误差进行精确表示,并且我们证明了对于代理设计,未正则化的最小范数估计器的隐式偏置恰好对应于在总体分布上解决岭正则化最小二乘问题的解。
Dec, 2019
传统统计学智慧揭示了模型复杂度和预测误差之间的关系,但最近的研究提出了双峰现象的理论,即在参数个数超过样本大小时,测试误差会出现第二次下降。本研究挑战了此理论,并通过对经典统计机器学习方法的细致研究,提出了双峰现象的解释,认为其位置与插值阈值无直接关联,并且通过采用非参数统计学的视角,证明其曲线实际上符合传统的凸形状,解决了双峰现象和统计直觉之间的矛盾。
Oct, 2023
证明了在 ridgeless 线性回归中,标签噪声导致的预期平均平方泛化误差的非渐进分布独立下界,并推广了类似的已知结果到过参数化(插值)区域,并适用于具有几乎定概率的全秩特征矩阵的广泛输入分布类,包括根据随机深度神经网络构造的特征映射。
Oct, 2020
本篇论文提出了一个回归模型的理论,在训练数据中具有比数据点更多的参数,这种模型被称为过度参数化模型,有能力插值训练数据,最好的模型是过度参数化的,与模型阶数呈双峰形。我们分析了最小二乘问题的最小化的解的内插模型,以及使用岭回归进行模型拟合的情况。同时也提出了一个基于回归矩阵最小奇异值行为的结果,可以解释测试误差随模型阶数的峰值位置和双峰形状。
Apr, 2023
本文通过神经切向核将大型神经网络连接到核方法,探讨了初始化会导致神经网络输出函数在期望附近产生有限大小的随机波动,影响分类的广义误差。我们最终的分析表明,在计算限制条件下,使用几个中间大小的网络,略高于阈值点,对它们的输出求平均,可以获得最小的分类误差。
Jan, 2019
使用统计物理学中的复制法,我们针对一个综合数据集,研究了广义线性回归和分类问题,在超参数化和不充分参数化的条件下,为这些问题提供了渐近泛化表现的闭式表达式,特别地,我们展示了逻辑回归的双重下降效应,突显了用正交投影相比随机高斯投影在学习随机特征时的优越性,讨论了隐藏流形模型中数据相关性的作用。
Feb, 2020