Aug, 2017

使用有界宽度和ReLU激活的深度神经网络实现通用函数逼近

TL;DR本文主要研究具有ReLU激活和有限宽度的神经网络的深度表达能力,重点探讨了通过这种网络对连续函数进行逼近的最小宽度和所需深度的问题,最终得出了使用宽度为$d+3$的ReLU网络可以以任意精度逼近$d$维空间上的任意标量连续函数的深度估计结论。