Jan, 2021

神经网络在逼近良函数时的规模和深度分离

TL;DR利用 ReLU 网络对可计算的具有多项式界的 Lipschitz 常数的函数进行逼近时,深度和大小如何影响其表达能力,深度越大亦或者规模越大准确度是否更高是研究中的主要难点,并探讨了相应的难题和所带来的挑战。我们的统计结果显示出了一些计算复杂性中的难点,同时也指出了一些可表示为具有布尔函数的形式,利用神经网络和阈值电路进行计算时具有线性的下界,这一研究也具有独立的意义。