AAAIDec, 2021

对超参数区间中神经网络的影响函数的重新思考

TL;DR本文利用神经切线核理论计算对于带拉格朗日正则化均方损失训练的神经网络的影响函数。通过理论分析,证明了在 ReLU 网络的两个层的宽度足够大时,误差可以任意小。此外,案例分析了 IHVP 方法在过度参数化区域的误差限制及其相关性。实验结果验证了理论分析的正确性。