Nov, 2019

学习一层卷积神经网络的样本复杂度

TL;DR我们研究了使用不重叠过滤器的一层卷积神经网络的样本复杂度,并提出了一种称为近似梯度下降的新算法来训练 CNN,该算法在随机初始化时具有地面真值参数的线性收敛性,并且适用于常规的激活函数,例如 ReLU,Leaky ReLU,Sigmod 和 Softplus 等。我们的样本复杂度超过现有结果,并匹配了具有线性激活函数的一层 CNNs 的信息论下界,表明我们的样本复杂度是紧致的。