ReLU网络在核区域中的深浅等效性
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数- ReLU函数以及高斯网络的新结果。
Aug, 2016
本文研究了梯度下降算法在光滑内核中的应用限制,提出了基于特征向量预处理的EigenPro迭代优化算法,通过注入小规模二阶信息以改善此限制,从而实现更好的收敛性能。
Mar, 2017
该论文证明了具有$D$ ReLU层的神经网络在平方损失下对某类函数的表示结果,证实了深度网络可以更好地表示不太光滑的函数,其主要技术创新是充分利用深层网络可以用少量激活函数产生高振荡函数的事实。
Jun, 2020
本研究通过凸优化理论分析发现,ReLU神经网络通过一种隐含的正则化机制实现高维特征选择,并证明了该等价凸问题可以通过标准凸优化求解器在多项式时间内全局优化。
Oct, 2021
本文研究了使用ReLU激活的浅层和深层人工神经网络的高维逼近能力,并且证明了使用深层ReLU人工神经网络可以解决简单逼近问题,而不能在多项式时间复杂度下使用浅层或不够深度的人工神经网络来解决。
Jan, 2023
ReLU shallow neural networks can uniformly approximate functions from the H"older space with rates close to the optimal one in high dimensions.
Jul, 2023
通过使用ReLU $^k$激活函数的深度神经网络,我们研究了其表达能力和逼近特性。我们的研究发现,深度ReLU$^k$网络不仅有效逼近多项式,还能准确表示高次多项式。我们提供了全面而有建设性的证明,证明了深度ReLU$^k$网络可以表示多项式。借此,我们得出了网络参数的上界,并证明了Sobolev空间和解析函数的子优逼近率。此外,通过研究深度ReLU$^k$网络对浅层网络的表达能力,我们发现深度ReLU$^k$网络能逼近多种变差空间中的函数,甚至超越了仅由ReLU$^k$激活函数生成的变差空间。这一发现表明了深度ReLU$^k$网络在逼近各种变差空间中的函数时的适应性。
Dec, 2023