BriefGPT.xyz
Jun, 2020
对具有深度精确依赖的ReLU网络的尖锐表示定理
Sharp Representation Theorems for ReLU Networks with Precise Dependence on Depth
HTML
PDF
Guy Bresler, Dheeraj Nagaraj
TL;DR
该论文证明了具有$D$ ReLU层的神经网络在平方损失下对某类函数的表示结果,证实了深度网络可以更好地表示不太光滑的函数,其主要技术创新是充分利用深层网络可以用少量激活函数产生高振荡函数的事实。
Abstract
We prove sharp dimension-free
representation results
for
neural networks
with $D$
relu layers
under square loss for a class of functions $
→