Feb, 2018

深度神经网络有效地学习非平滑函数

TL;DR本文阐述了深度神经网络在一定情况下为何比其他模型表现更好,并通过考虑一定类别的非光滑函数,推导了使用 ReLU 激活的 DNN 的估计器的泛化误差,同时说明了 DNN 的收敛速率几乎是最优的,而某些流行的模型则未达到最优速率,这为选择合适的 DNN 层数和边提供了指导。