研究表明,过度拟合是深度学习方法的主要问题之一,但当训练中使用最小规范化规则时,线性回归问题中的过度拟合也可以实现高精度预测,需要超参数数量显著超过样本大小。
Jun, 2019
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用ReLU激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过O(n^2)时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
本文概述了“过参数化机器学习”的新理论,通过统计信号处理的角度解释最近研究发现的相应现象和结果,着重强调了这个研究领域的独特性和开放的问题。
Sep, 2021
本文通过研究感知偏差的强度程度,探讨了过度拟合噪声现象所谓“良性过度拟合”或“无害插值”时的影响因素,给出了高维卷积核回归收敛界限的紧密非渐进限制,并提供了旋转不变性差异的不同滤波器尺寸深度神经网络的经验证据。
Jan, 2023
本研究发现,神经网络的光滑度才是决定良性过拟合的关键,只有在评估器的导数充分大时才能实现良性过拟合。我们证明在固定维度中,光滑度适中的良性过拟合是不可能的,在回归模型中,采用一系列具有大导数的峰形平滑内核可以实现良性过拟合。通过添加小的高频波动到激活函数中,可以在无限宽的神经网络中实现良性过拟合,从而提高在低维数据集上的泛化性能。
May, 2023
本文研究过参数神经网络的过拟合现象,并证明了在不同的维度下会出现不同种类的过拟合现象,包括良性过拟合和温和过拟合,并解释了这些现象与样本大小、网络结构等因素的相关性。
该论文探讨和证明了过参数化的深度神经网络利用懒惰训练策略可以实现贝叶斯最优测试误差,同时获得(几乎)零训练误差,并提出了三个相关概念的统一。
在这篇论文中,我们在温和且更现实的假设下,对学习曲线进行了全面的描述,详细阐述了正则化参数、源条件和噪声的选择对学习曲线的影响和相互作用。特别地,我们的结果表明,在噪声水平较小时,'良性过拟合现象'只存在于非常宽的神经网络中。
Sep, 2023
将方差过高的机器学习模型用于对付具有恶意目标的数据可能会导致对抗性风险的增加。
Jan, 2024
高维线性回归中的过拟合与泛化问题在转移学习中的不同表现及风险边界进行了分析和研究,并提出了基于超参数化程度的有益和有害转变偏差的分类方法。
Mar, 2024