Jun, 2020

对具有深度精确依赖的 ReLU 网络的尖锐表示定理

TL;DR该论文证明了具有 $D$ ReLU 层的神经网络在平方损失下对某类函数的表示结果,证实了深度网络可以更好地表示不太光滑的函数,其主要技术创新是充分利用深层网络可以用少量激活函数产生高振荡函数的事实。