Mar, 2020

通过神经网络梯度下降无超参数化地记忆高斯函数

TL;DR本文证明了从正交初始化开始,使用 gradient descent 算法,对于深度网络中的一个步骤,使用 q 个 hidden neurons 可以在 Rd 上学习记忆 Ω(dq/log^4 (d)) 个独立的、随机标记的高斯函数,结论适用于绝对值等一系列激活函数。