Nov, 2017

使用多核学习非重叠的卷积神经网络

TL;DR本研究考虑具有多个内核的不重叠卷积神经网络的参数恢复,当输入服从高斯分布且样本量足够大时,对于大多数流行的激活函数,如 ReLU,Leaky ReLU,Squared ReLU,Sigmoid 和 Tanh,我们展示了该 CNN 的平方损失在全局最优附近的吸引盆中是局部强凸的,所需样本复杂度与输入维度成比例且多项式内核数量和参数的条件数,同时我们还展示了张量方法能够将参数初始化为局部强凸的区域,因此,对于大多数光滑的激活函数,张量初始化后的梯度下降保证在输入维度、精度对数和其他因素上是多项式数量级的时间内收敛到全局最优解。据我们所知,这是第一份提供具有多个内核的 CNN 的恢复保证的工作,其样本复杂度和计算复杂度都是多项式的。