关于无 Ridge 回归中双峰下降峰的普适性
本文考虑使用随机特征空间,在测度无限趋近于无限,特征维度和样本量趋近于无穷大的情况下,利用结果回归模型和双下降现象等关键词解释深度学习模型中的奇妙现象。
Aug, 2019
本文在一个简单的样例中证明了双下降现象在欠参数化的情况下确实存在,同时探讨了岭回归正则化对模型泛化误差和范数的影响以及两种正则化方法之间的相互作用,结果表明它们不完全等效。
May, 2023
本文研究了具有随机特征和随机梯度下降的无脊椎回归的统计属性,探索了随机梯度和随机特征中因素的影响,特别是随机特征误差呈现双峰曲线。在理论结果的启发下,我们提出了一种可调节的核算法,优化核的谱密度。本研究架起了插值理论和实际算法之间的桥梁。
May, 2022
使用统计物理学中的复制法,我们针对一个综合数据集,研究了广义线性回归和分类问题,在超参数化和不充分参数化的条件下,为这些问题提供了渐近泛化表现的闭式表达式,特别地,我们展示了逻辑回归的双重下降效应,突显了用正交投影相比随机高斯投影在学习随机特征时的优越性,讨论了隐藏流形模型中数据相关性的作用。
Feb, 2020
通过随机对偶理论,我们研究了完全行 / 列相关的线性回归模型,并考察了最小范数插值器、最小二乘法和岭回归器等几种经典估计方法。我们的结果表明,闭式计算的结果精确描述了所有相关的估计方法关于优化目标的特征,包括预测风险(测试或泛化误差),并定性地揭示了风险随特征数目 / 样本大小比增加而呈现的非单调行为(即所谓的双峰现象)。此外,我们的结果特例与 [6,16,17,24] 中使用谱方法获得的相应结果完全一致(前提是没有样本内 / 时间序列相关性)。
Jun, 2024
本文从均方误差的角度对 ridgeless interpolation least squares estimator 进行分析,证明相对于样本大小引入大量不重要的参数能够有效降低估计器的均方误差,并且利用回归误差的方差 - 协方差矩阵的迹来刻画估计困难。
May, 2023
本篇论文提出了一个回归模型的理论,在训练数据中具有比数据点更多的参数,这种模型被称为过度参数化模型,有能力插值训练数据,最好的模型是过度参数化的,与模型阶数呈双峰形。我们分析了最小二乘问题的最小化的解的内插模型,以及使用岭回归进行模型拟合的情况。同时也提出了一个基于回归矩阵最小奇异值行为的结果,可以解释测试误差随模型阶数的峰值位置和双峰形状。
Apr, 2023
该研究通过建立偏差 - 方差分解方法,研究了高维核岭回归在欠参数和过参数情况下的泛化性能特征, 揭示了特定的正则化方案下偏差和方差与训练数据数量 n 和特征维度 d 的组合方式对核回归风险曲线的形状的影响。
Oct, 2020