Feb, 2016

深度理解神经网络:初始化的能力和表达能力的双重视角

TL;DR我们开发了神经网络和组合核之间的一般对偶,从而更好地理解深度学习。我们表明,由普通随机初始化生成的初始表示足够丰富,以在对偶核空间中表达所有函数。因此,虽然最坏情况下目标函数很难优化,但初始权重形成了优化的良好起点。我们的对偶视角还揭示了神经网络的实用和审美视角,并强调了它们的表达能力。