Christoph Hertrich, Amitabh Basu, Marco Di Summa, Martin Skutella
TL;DR本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
Abstract
We contribute to a better understanding of the class of functions that is represented by a neural network with relu activations and a given architecture. Using techniques from mixed-integer optimization,