Sep, 2023
带有 ReLU,leaky ReLU 和 softplus 激活函数的深度神经网络能够在 $L^p$ 意义下,证明地克服 Kolmogorov 偏微分方程中具有 Lipschitz 非线性的维数灾难
Deep neural networks with ReLU, leaky ReLU, and softplus activation provably overcome the curse of dimensionality for Kolmogorov partial differential equations with Lipschitz nonlinearities in the $L^p$-sense
Julia Ackermann, Arnulf Jentzen, Thomas Kruse, Benno Kuckuck, Joshua Lee Padgett
TL;DR深度学习方法在逼近高维偏微分方程方面的研究,尤其是通过神经网络和活化函数的选择,可以有效地克服维数诅咒,并能够在多项式时间内以任意精度逼近解,为解决偏微分方程提供了广泛应用的前景。