Oct, 2023

深度 ReLU 网络和高阶有限元方法 II:切比雪夫模拟

TL;DR对于具有指定参数定义的深度 ReLU 神经网络(NN),本文讨论了其在 Sobolev 范数中的表达速率和稳定性,针对有限分区上的连续的分段多项式函数。我们通过 Chebyshev 多项式展开系数独特构建了 ReLU NN 的代理,这些系数可以通过在 Clenshaw-Curtis 点上函数的值使用逆快速傅里叶变换轻松计算得到。与基于 ReLU NN 模拟多项式的构造方法相比,本文获得了更优的表达速率和稳定性界限。所有模拟界限均明确以区间的分割、目标模拟精度和每个分割元素的多项式次数来表示。本文还针对在数值分析中常见的各种函数和范数提供了 ReLU NN 模拟误差估计,特别是对于具有点奇异性的解析函数展示了指数级的 ReLU 模拟速率界限,并发展了 Chebfun 逼近和构造性 ReLU NN 模拟之间的接口。