强归纳偏置可证明防止无害插值
本研究探讨了深度神经网络在训练数据含有噪声且参数个数超过数据点个数时,仍能够实现零训练误差且具有泛化能力的机制,并阐述了过拟合和特征选择不佳对泛化能力的影响。
Mar, 2019
本文分析局部插值方案,包括几何单纯插值算法和单一加权 k 近邻算法,在分类和回归问题中证明了这些方案的一致性或近一致性,并提出了一种解释对抗性示例的方法,同时讨论了与核机器和随机森林的一些联系。
Jun, 2018
该论文研究了神经网络等插值方法是否能够在存在噪声的情况下,拟合训练数据而不会表现出灾难性的测试性能,尝试通过 “良性过拟合” 和 “温和过拟合” 两个现象进行解释,并首次系统研究了 “温和过拟合” 的性质及在核(岭)回归中的表现,以及在深度神经网络中的实验结果。
Jul, 2022
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用 ReLU 激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过 O (n^2) 时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
本研究发现,神经网络的光滑度才是决定良性过拟合的关键,只有在评估器的导数充分大时才能实现良性过拟合。我们证明在固定维度中,光滑度适中的良性过拟合是不可能的,在回归模型中,采用一系列具有大导数的峰形平滑内核可以实现良性过拟合。通过添加小的高频波动到激活函数中,可以在无限宽的神经网络中实现良性过拟合,从而提高在低维数据集上的泛化性能。
May, 2023
最近机器学习理论的进展表明,使用过参数化的机器学习算法对带有噪声样本进行插值总是会导致不一致性。然而,这项工作却令人惊讶地发现,在描述物理定律的偏微分方程(PDEs)控制的监督任务中,使用物理知识驱动的学习进行插值的机器学习可以表现出良性过拟合和一致性。分析了解决涉及椭圆型 PDE 的线性逆问题的核岭(无岭)回归的渐进 Sobolev 范数学习曲线。结果显示,PDE 算子可以稳定方差并导致固定维度问题的良性过拟合,与标准回归设置形成对比。还研究了通过最小化不同 Sobolev 范数引入的各种归纳偏差作为隐式正则化的影响。值得注意的是,对于岭回归和无岭回归,收敛速度与具体的(平滑)归纳偏差无关。对于正则化最小二乘估计器,当适当地选择正则化参数时,所有(足够平滑的)归纳偏差都可以实现最优的收敛速度。平滑性要求恢复了先前在贝叶斯设置中发现的条件,并将结论扩展到最小范数插值估计器。
Jun, 2024