回归中的无害噪声数据插值
本研究在考虑一个欠定的,有噪音的线性回归模型,其中最小范数插值预测器因为一致性而被认为是有效的,研究者探究是否均匀收敛以及范数球时的学习机制能够解释其成功,发现虽然均匀收敛不能证明范数球中的学习,但可以用一种略弱但比较常见的方式解释最小范数插值器一致性的存在,同时该研究使用这种方式限定了低(但不是最小)范数插值器的泛化误差。
Jun, 2020
在神经切向(NT)区域的背景下,研究了过参数化现象和它们的推广误差特征,揭示了经验NT内核的特征并且证明了测试误差可以被无穷宽内核的核岭回归误差很好地近似。
Jul, 2020
探讨了深度学习中简单梯度方法在寻找接近最优解的非凸优化问题上的出人意料的成功,以及其之所以具有超预期的表现,推断是因为过度参数化可以让梯度方法寻找插值解,这些方法隐含地施加正则化,并且过度参数化导致了良性过拟合等基本原理构成了这个现象,同时摘要了最新的理论进展,重点考虑了神经网络的线性区域。
Mar, 2021
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用ReLU激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过O(n^2)时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
本文通过研究感知偏差的强度程度,探讨了过度拟合噪声现象所谓“良性过度拟合”或“无害插值”时的影响因素,给出了高维卷积核回归收敛界限的紧密非渐进限制,并提供了旋转不变性差异的不同滤波器尺寸深度神经网络的经验证据。
Jan, 2023
研究了使用最小范数两层ReLU网络进行有噪单变量回归时的渐近过拟合行为,发现对于L1损失和p<2的任何Lp损失缓解了过拟合,但对于p≥2却是灾难性的。
Jul, 2023