Jul, 2018

ReLU 深度神经网络与线性有限元

TL;DR研究使用 ReLU 函数作为激活函数的深度神经网络和连续分段线性函数的关系,特别是从单纯形线性有限元法(FEM)得到的连续分段线性函数。在此基础上,我们证明了使用 ReLU DNN 表示任何线性有限元函数需要至少两个隐藏层,而使用 ReLU DNN 表示任何 CPWL 函数需要至少两个隐藏层。最后演示了使用 ReLU DNN 求解偏微分方程组的结果。