MMMay, 2019

深度神经网络初始化引起的泛化误差类型

TL;DR通过利用 DNN 训练动力学在 NTK 领域中的线性性,本研究提供了关于 DNN 学习的初始化和损失函数如何影响其泛化误差的明确定量答案 ,证明了在 NTK 范围内通过抗对称初始化技巧(ASI)减少初始输出引起的误差的可能性并加速训练。