Aug, 2017

使用具有ReLU激活函数的深度神经网络进行非参数回归

TL;DR使用基于稀疏连接ReLU激活函数的深层神经网络,通过适当选择网络结构实现多变量非参数回归模型的极小极限(最优)收敛速率(最多出现$log n$-因子),同时为多层前馈神经网络表现良好提供理论解释,并表明在不用结构约束的情况下,调整深度可以使模型的性能更好。