Jun, 2020

神经网络早期学习动力学的出乎意料的简单性

TL;DR本文证明,对于一类良好行为的输入分布,一个双层全连接神经网络的早期学习动态可以通过在输入上训练简单的线性模型来模仿。关键在于通过约束初始时的神经切向核(NTK)和数据核的仿射变换之间的谱范数差异来赋值。我们还表明,这种令人惊讶的简单性可以在更多层和具有卷积结构的网络中持续存在,验证了这一点。