Jul, 2023

具有无限宽度的浅层 ReLU 神经网络能表示分段线性函数

TL;DR本研究分析了使用修正线性单元(ReLU)作为激活函数的无限宽度、有限成本的浅层神经网络对连续分段线性函数的表示。通过积分表示,我们可以将浅层神经网络视为在适当的参数空间上的相应有限符号测度。我们将这些测度映射到参数空间上的测度,并将参数空间中的点双射映射到函数定义域中的超平面。我们证明了 Ongie 等人的一个猜想,即使用这种无限宽度神经网络可以表达的每一个连续分段线性函数都可以表达为有限宽度的浅层 ReLU 神经网络。