Jul, 2023

近似最大值需要多少个神经元?

TL;DR我们研究了神经网络在逼近连续分布下基于 $L_2$ 范数、使用 ReLU 激活函数的最大函数时所需的大小,提供了对逼近所需宽度的新的上下界,建立了深度 2 和 3、深度 3 和 5 网络之间的新深度分界,并且通过在广泛使用的 max 函数上提供了深度 2 网络逼近最大函数所需神经元数量的紧密界限,与先前以特殊构建或病态函数和分布为基础的结果相比,我们的下界具有潜在的广泛应用价值。