Feb, 2024

有界无穷宽神经网络的深度分离

TL;DR研究无穷宽度神经网络中的深度分离,该复杂性由权重的整体平方 L2 范数控制(网络中所有权重的平方和)。在以往的深度分离结果中,关注的是宽度方面的分离,这样的结果无法揭示深度是否决定了在网络宽度无限时是否可能学习出具有良好泛化性能的网络。本文研究以学习可行性所需的样本复杂性为标准的分离。具体来说,我们展示了通过由范数控制的深度为 3 的 ReLU 网络以多项式样本复杂度可学习的函数,而由范数控制的深度为 2 的 ReLU 网络无法通过次指数样本复杂度学习相同函数(对于任何范数值)。同时,我们还证明了在反向方向上不可能存在相似的陈述:通过具有无限宽度的范数控制的深度为 2 的 ReLU 网络以多项式样本复杂度可学习的任何函数也可以通过具有范数控制的深度为 3 的 ReLU 网络以多项式样本复杂度学习。