May, 2019

深度神经网络初始化引起的泛化误差类型

TL;DR通过利用DNN训练动力学在NTK领域中的线性性,本研究提供了关于DNN学习的初始化和损失函数如何影响其泛化误差的明确定量答案 ,证明了在NTK范围内通过抗对称初始化技巧(ASI)减少初始输出引起的误差的可能性并加速训练。