高维随机偏微分方程深度神经网络代理
通过使用神经网络逼近未知解的梯度来解决高维偏微分方程,该算法在包括非线性 Black-Scholes 方程、Hamilton-Jacobi-Bellman 方程和 Allen-Cahn 方程等方程上均取得了精确和低误差的结果。
Jul, 2017
提出了一种名为 Deep Galerkin Method(DGM)的算法,它使用深度神经网络来解决高维偏微分方程问题。相较于形成网格,该算法不依赖于网格,而是通过对随机采样的时间和空间点的批量训练来实现。它在一类高维自由边界的偏微分方程、高维哈密顿 - 雅各比 - 贝尔曼(Hamilton-Jacobi-Bellman)偏微分方程和 Burgers 方程上得到了测试,并且在高维空间中能够准确地近似各种边界条件和物理条件下的 Burgers 方程的一般解。此外,论文还证明了神经网络在一类拟线性抛物型偏微分方程上的逼近能力。
Aug, 2017
这篇论文揭示了深度人工神经网络在 Kolmogorov PDEs 数值逼近中克服了维数灾难的现象。我们证明了所用 DNN 模型的参数数量在 PDE 维数 d 和逼近精度的倒数 ε 的倒数中,最多呈多项式增长。
Sep, 2018
该论文提出了一种基于强化学习和神经网络的算法用于解决高维情况下的偏微分方程和反向随机微分方程等数学问题,并在物理和金融学领域的各种非线性情况下进行了测试和优化。
Jun, 2017
我们提出了两种基于随机神经网络解决高维偏微分方程 (PDE) 的有效方法。通过对这种类型网络的普适逼近性质的激励,这两种方法都将极限学习机 (ELM) 方法从低维扩展到高维。第一种方法中,$d$ 维度下未知解域由随机前向神经网络表示,其中隐藏层参数随机分配并固定,而输出层参数进行训练。PDE、边界 / 初值条件以及连续性条件 (对于方法的局部变量) 被施加在一组随机内部 / 边界对应点上。通过最小二乘解决其结果线性或非线性代数系统,从而得到网络参数的训练值。第二种方法通过一个基于近似理论的被约束表达式重新描述高维 PDE 问题,避免了随着维度增加而引发的 TFC 项数量的指数级增长。约束表达式中的自由域函数由随机神经网络表示,并通过类似于第一种方法的过程进行训练。我们进行了大量数值模拟,针对多个高维线性 / 非线性静态 / 动态 PDE,以展示这些方法的性能。与基于物理知识的神经网络 (PINN) 方法相比,当前方法在高维 PDEs 上既具有成本效益,又更准确。
Sep, 2023
本文介绍一种新的用于解决高维金融模型中的非线性偏微分方程的方法,该方法包含非线性现象、深度神经网络和随机梯度下降类型优化过程,并通过海量数据的数值结果证明了该方法的高效性和精确性。
Sep, 2017
该论文提出了一个开源在线培训框架,用于快速解决偏微分方程组,可以提高深度代理模型的数据多样性,对于 Fully connected neural networks、Fourier Neural Operator (FNO) 和 Message Passing PDE Solver 的预测准确度分别提高了 68%、16%和 7%。
Jun, 2023
本文综述了传统的 PDE 数值逼近方法以及近期的基于机器学习的方法,重点介绍了以神经算子为中心的关键构架,这是一种学习 PDE 解算子的新方法,与传统方法相比具有 1000 倍的计算速度优势,这些新的计算方法可以在解决许多基础和应用物理问题方面带来巨大优势。
Jan, 2023
该论文通过偏微分方程的理论框架,提出了三种新型的 ResNet 神经网络架构,分别属于抛物线和双曲线类型的 CNN,能够提供深度学习的新算法和思路,并用数值实验证明了它们的竞争力。
Apr, 2018
该论文提出了一种将多层求解器和基于神经网络的深度学习方法相结合的新方法,用于解决高维参数的偏微分方程数值解问题,并在理论和实验方面都得到了验证。
Apr, 2023