Oct, 2024
经过训练的两层ReLU网络的良性过拟合回归
Benign Overfitting for Regression with Trained Two-Layer ReLU Networks
TL;DR本文研究了使用ReLU激活函数的两层全连接神经网络的最小二乘回归问题,提出了一种在有限宽度的ReLU网络中实现良性过拟合的理论框架。通过对过度风险的分解,我们能够避免均匀收敛的陷阱,并证明了在数据拟合过程中,相同设置下的训练网络会过拟合数据。这一研究为各类回归函数提供了新的理解和策略。