通过等周性得出的强韧普适定律
在神经切向(NT)区域的背景下,研究了过参数化现象和它们的推广误差特征,揭示了经验 NT 内核的特征并且证明了测试误差可以被无穷宽内核的核岭回归误差很好地近似。
Jul, 2020
本文阐述了深度学习和机器学习等领域中,数学理论在实践中的不足和理论难题。作者尝试从揭示深度学习基础的角度探究插值和超参数化的作用,以期近一步走向深度学习和机器学习的普适理论。
May, 2021
本文通过研究感知偏差的强度程度,探讨了过度拟合噪声现象所谓 “良性过度拟合” 或 “无害插值” 时的影响因素,给出了高维卷积核回归收敛界限的紧密非渐进限制,并提供了旋转不变性差异的不同滤波器尺寸深度神经网络的经验证据。
Jan, 2023
本文分析局部插值方案,包括几何单纯插值算法和单一加权 k 近邻算法,在分类和回归问题中证明了这些方案的一致性或近一致性,并提出了一种解释对抗性示例的方法,同时讨论了与核机器和随机森林的一些联系。
Jun, 2018
本文提出了一种基于大偏差理论的模型平滑性的新颖描述方法,通过这种平滑性描述方法,阐述了为什么某些插值器能够表现出良好的泛化能力的统一理论解释,以及为什么一系列现代学习技术(如随机梯度下降,$L_2$- 范数正则化,数据增强,不变性结构和过度参数化)都能够发现这些插值器。这些方法提供了互补的程序,使优化器能够偏向更加平滑的插值器,而在这种理论分析下,这些插值器具有更好的泛化误差。
Jun, 2023
最近机器学习理论的进展表明,使用过参数化的机器学习算法对带有噪声样本进行插值总是会导致不一致性。然而,这项工作却令人惊讶地发现,在描述物理定律的偏微分方程(PDEs)控制的监督任务中,使用物理知识驱动的学习进行插值的机器学习可以表现出良性过拟合和一致性。分析了解决涉及椭圆型 PDE 的线性逆问题的核岭(无岭)回归的渐进 Sobolev 范数学习曲线。结果显示,PDE 算子可以稳定方差并导致固定维度问题的良性过拟合,与标准回归设置形成对比。还研究了通过最小化不同 Sobolev 范数引入的各种归纳偏差作为隐式正则化的影响。值得注意的是,对于岭回归和无岭回归,收敛速度与具体的(平滑)归纳偏差无关。对于正则化最小二乘估计器,当适当地选择正则化参数时,所有(足够平滑的)归纳偏差都可以实现最优的收敛速度。平滑性要求恢复了先前在贝叶斯设置中发现的条件,并将结论扩展到最小范数插值估计器。
Jun, 2024
本篇论文提出了一个回归模型的理论,在训练数据中具有比数据点更多的参数,这种模型被称为过度参数化模型,有能力插值训练数据,最好的模型是过度参数化的,与模型阶数呈双峰形。我们分析了最小二乘问题的最小化的解的内插模型,以及使用岭回归进行模型拟合的情况。同时也提出了一个基于回归矩阵最小奇异值行为的结果,可以解释测试误差随模型阶数的峰值位置和双峰形状。
Apr, 2023
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用 ReLU 激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过 O (n^2) 时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
本研究探讨了深度神经网络在训练数据含有噪声且参数个数超过数据点个数时,仍能够实现零训练误差且具有泛化能力的机制,并阐述了过拟合和特征选择不佳对泛化能力的影响。
Mar, 2019