Apr, 2023
浅层ReLU$^k$神经网络的最优逼近速率及其在非参数回归中的应用
Optimal rates of approximation by shallow ReLU$^k$ neural networks and
applications to nonparametric regression
TL;DR研究了一些与浅层ReLU$^k$神经网络相对应的变分空间的近似容量,证明了这些空间包含充分平滑的函数与有限变化范数。此外,还建立了以变化范数为基础的逼近率与神经元数量的最佳逼近率,并且证明了浅层ReLU$^k$神经网络可以实现学习H"older函数的极小极值速率,而过参量化(深或浅)神经网络可以实现非参数回归的几乎最优速率。