从功能等效性的角度看前馈神经网络的复杂度研究了前馈神经网络的复杂性,通过功能等价的概念来探讨不同的网络参数化可以导致相同的功能,利用排列不变性来推导出前馈神经网络类的新型覆盖数界限,揭示了通过利用这个属性可以降低神经网络的复杂性,此外,通过参数空间的对称结构,证明适当的随机参数初始化策略可以增加优化收敛的概率,同时发现过度参数化的网络更容易训练,在增加神经网络的宽度方面可以导致有效参数空间体积的消失。这些发现为过度参数化提供了新的见解,并对深度学习中的一般化和优化有重要的影响。
May, 2023