岭回归中的良性过拟合
本研究探讨了深度神经网络在训练数据含有噪声且参数个数超过数据点个数时,仍能够实现零训练误差且具有泛化能力的机制,并阐述了过拟合和特征选择不佳对泛化能力的影响。
Mar, 2019
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用 ReLU 激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过 O (n^2) 时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
在这篇论文中,我们在温和且更现实的假设下,对学习曲线进行了全面的描述,详细阐述了正则化参数、源条件和噪声的选择对学习曲线的影响和相互作用。特别地,我们的结果表明,在噪声水平较小时,' 良性过拟合现象 ' 只存在于非常宽的神经网络中。
Sep, 2023
本文通过研究感知偏差的强度程度,探讨了过度拟合噪声现象所谓 “良性过度拟合” 或 “无害插值” 时的影响因素,给出了高维卷积核回归收敛界限的紧密非渐进限制,并提供了旋转不变性差异的不同滤波器尺寸深度神经网络的经验证据。
Jan, 2023
本篇论文提出了一个回归模型的理论,在训练数据中具有比数据点更多的参数,这种模型被称为过度参数化模型,有能力插值训练数据,最好的模型是过度参数化的,与模型阶数呈双峰形。我们分析了最小二乘问题的最小化的解的内插模型,以及使用岭回归进行模型拟合的情况。同时也提出了一个基于回归矩阵最小奇异值行为的结果,可以解释测试误差随模型阶数的峰值位置和双峰形状。
Apr, 2023
本文分析局部插值方案,包括几何单纯插值算法和单一加权 k 近邻算法,在分类和回归问题中证明了这些方案的一致性或近一致性,并提出了一种解释对抗性示例的方法,同时讨论了与核机器和随机森林的一些联系。
Jun, 2018
使用不带显式正则化的核 “无岭” 回归及非线性核函数能完美拟合训练数据,本文分离了最小范数插值解的隐含正则化现象,这是由于输入数据的高维性、核函数的曲率以及数据的几何特性所导致的,并给出了一种数据相关的外样本误差的上界估计。
Aug, 2018
在理想情况下,强正则化可以防止线性回归的过度拟合。然而,当预测空间中有高方差方向可以预测响应变量时,低方差方向提供了隐式的岭正则化,进一步的正岭惩罚将会起到反作用。该研究还发现,在低准则下,明确的岭正则化可能无法提供最小范数最小二乘估计器的改进。
May, 2018
本研究发现,神经网络的光滑度才是决定良性过拟合的关键,只有在评估器的导数充分大时才能实现良性过拟合。我们证明在固定维度中,光滑度适中的良性过拟合是不可能的,在回归模型中,采用一系列具有大导数的峰形平滑内核可以实现良性过拟合。通过添加小的高频波动到激活函数中,可以在无限宽的神经网络中实现良性过拟合,从而提高在低维数据集上的泛化性能。
May, 2023