May, 2023

宽残差网络的泛化能力

TL;DR本文研究了 ReLU 激活函数下宽残差网络在球面上的泛化能力,并且证明了残差网络核(RNK)在宽度趋近于无穷时一致收敛于残差神经切向核(RNTK),最终说明了残差网络的泛化误差总是趋近于 RNTK 的核回归误差,而早停策略下的宽残差网络可以达到最优健壮性,同时也证明了无法对过度拟合数据的残差网络进行泛化。