Dec, 2023
ReLU$^k$激活的深度神经网络的表达能力和逼近特性
Expressivity and Approximation Properties of Deep Neural Networks with
ReLU$^k$ Activation
TL;DR通过使用ReLU $^k$激活函数的深度神经网络,我们研究了其表达能力和逼近特性。我们的研究发现,深度ReLU$^k$网络不仅有效逼近多项式,还能准确表示高次多项式。我们提供了全面而有建设性的证明,证明了深度ReLU$^k$网络可以表示多项式。借此,我们得出了网络参数的上界,并证明了Sobolev空间和解析函数的子优逼近率。此外,通过研究深度ReLU$^k$网络对浅层网络的表达能力,我们发现深度ReLU$^k$网络能逼近多种变差空间中的函数,甚至超越了仅由ReLU$^k$激活函数生成的变差空间。这一发现表明了深度ReLU$^k$网络在逼近各种变差空间中的函数时的适应性。