Sep, 2017

使用深度 ReLU 神经网络对分段光滑函数进行最优逼近

TL;DR研究了在$L^2$意义下逼近分类器函数所需的ReLU神经网络的深度和权重数量,构造了一类具有固定层数的人工神经网络,使用ReLU激活函数逼近可允许不连续的分段$C^β$函数,权重数量为$O(ε^{-(2(d-1))/β})$,并证明这是最优的。此外,为了实现最优逼近率,需要具有一定深度的ReLU网络。最后,分析了在高维空间中使用特征映射和分类器函数逼近的情况。