Oct, 2021

关于 ReLU 神经网络的最佳记忆能力

TL;DR本研究探讨了前向 ReLU 神经网络的记忆能力,发现使用大约 O (sqrt (N)) 个参数可以记忆任何满足一定可分性假设的 N 个点。我们还提出了一个更一般化的构造,可以使用更少的大约 N/L 个参数记忆 N 个样本,其中 1≤L≤sqrt (N)。我们的构造使用具有大位复杂度的权重,证明了这种大位复杂度对于用一个次线性数量参数进行记忆既是必要的又是充分的。