ICLRFeb, 2023

通过晶格多面体计算整数 ReLU 神经网络深度下限

TL;DR本文通过利用神经网络和牛顿多面体之间的对偶性,基于 tropical geometry 理论,证明了单层 ReLU 神经网络所能表示的最大值函数类集合随着网络深度的增加而严格扩大,同时允许任意的宽度,且保证网络的权重为整型数。并且,通过对这些 Newton 多面体的归一化面积的奇偶性论证,表明需要层数 $log_2 (n) 向上取整 $ 才能计算 $n$ 个数字的最大值。