Nov, 2024
梯度下降在非参数回归中找到具有尖锐泛化的过参数化神经网络:一种无分布分析
Gradient Descent Finds Over-Parameterized Neural Networks with Sharp
Generalization for Nonparametric Regression: A Distribution-Free Analysis
TL;DR本研究探讨了通过过参数化的两层神经网络进行非参数回归的问题,提出了在梯度下降下提前停止训练的条件下,网络可以实现与经典核回归相同的风险率$\cO(\eps_n^2)$,且这一结果不依赖于训练数据的分布假设。这一发现填补了传统核回归模型与过参数化有限宽神经网络之间的理论空白,为非参数回归研究提供了重要的理论支持。