BriefGPT.xyz
Aug, 2017
使用具有ReLU激活函数的深度神经网络进行非参数回归
Nonparametric regression using deep neural networks with ReLU activation function
HTML
PDF
Johannes Schmidt-Hieber
TL;DR
使用基于稀疏连接ReLU激活函数的深层神经网络,通过适当选择网络结构实现多变量非参数回归模型的极小极限(最优)收敛速率(最多出现$log n$-因子),同时为多层前馈神经网络表现良好提供理论解释,并表明在不用结构约束的情况下,调整深度可以使模型的性能更好。
Abstract
Consider the
multivariate nonparametric regression
model. It is shown that estimators based on sparsely connected
deep neural networks
with
relu
→