使用张量列车格式解决高维抛物偏微分方程
数值逼近偏微分方程在高维度上面临巨大挑战,因为传统的基于网格的方法受到维度灾难的困扰。最近的尝试依赖于蒙特卡罗方法和变分公式的结合,使用神经网络进行函数逼近。本文在前人工作的基础上,认为张量网络为抛物型偏微分方程提供了一个吸引人的框架:在反向随机微分方程和回归型方法的重构相结合的方法中,利用潜在低秩结构实现了压缩和高效计算的优势。强调连续时间观点,我们开发了迭代方案,其在计算效率和稳健性方面有所不同。我们在理论上和数值上都证明了我们的方法能在精度和计算效率之间取得有利的权衡。而以往的方法要么准确要么快速,我们已经找到了一种新的数值策略,经常能够同时兼顾这两个方面。
Jul, 2023
通过使用神经网络逼近未知解的梯度来解决高维偏微分方程,该算法在包括非线性 Black-Scholes 方程、Hamilton-Jacobi-Bellman 方程和 Allen-Cahn 方程等方程上均取得了精确和低误差的结果。
Jul, 2017
该论文提出了一种基于强化学习和神经网络的算法用于解决高维情况下的偏微分方程和反向随机微分方程等数学问题,并在物理和金融学领域的各种非线性情况下进行了测试和优化。
Jun, 2017
本文介绍了如何通过 Tensor Neural Networks 来解决 Partial Differential Equations 的问题,实现了与 Deep Neural Network 同样精度的情况下更小的参数及更快的训练速度,并以 Black-Scholes-Barenblatt equation 模型为例进行了测试验证。
Aug, 2022
本文介绍一种新的用于解决高维金融模型中的非线性偏微分方程的方法,该方法包含非线性现象、深度神经网络和随机梯度下降类型优化过程,并通过海量数据的数值结果证明了该方法的高效性和精确性。
Sep, 2017
我们提出了两种基于随机神经网络解决高维偏微分方程 (PDE) 的有效方法。通过对这种类型网络的普适逼近性质的激励,这两种方法都将极限学习机 (ELM) 方法从低维扩展到高维。第一种方法中,$d$ 维度下未知解域由随机前向神经网络表示,其中隐藏层参数随机分配并固定,而输出层参数进行训练。PDE、边界 / 初值条件以及连续性条件 (对于方法的局部变量) 被施加在一组随机内部 / 边界对应点上。通过最小二乘解决其结果线性或非线性代数系统,从而得到网络参数的训练值。第二种方法通过一个基于近似理论的被约束表达式重新描述高维 PDE 问题,避免了随着维度增加而引发的 TFC 项数量的指数级增长。约束表达式中的自由域函数由随机神经网络表示,并通过类似于第一种方法的过程进行训练。我们进行了大量数值模拟,针对多个高维线性 / 非线性静态 / 动态 PDE,以展示这些方法的性能。与基于物理知识的神经网络 (PINN) 方法相比,当前方法在高维 PDEs 上既具有成本效益,又更准确。
Sep, 2023
利用深度学习方法解决高维随机偏微分方程的问题。通过使用全连接深度残差网络来逼近随机偏微分方程,在确定逼近深度神经网络的参数时,采用了 SGD 的变种,并在扩散和热传导问题上得到了验证。
Jun, 2018
我们提出了一种基于有限维控制的方法来近似解决高维演化型偏微分方程的解算符。通过使用通用的降阶模型,例如深度神经网络,我们将模型参数的演化与相应函数空间中的轨迹连接起来。利用神经常微分方程的计算技术,我们学习参数空间上的控制,从而使受控轨迹与 PDE 的解非常接近。对于一类二阶非线性 PDE,我们验证了近似精确度。对几个高维 PDE,包括解决 Hamilton-Jacobi-Bellman 方程的真实应用,我们展示了所提方法的准确性和效率。
Jan, 2024
开发了一种名为 Stochastic Dimension Gradient Descent (SDGD) 的新方法,用于扩展物理信息神经网络(PINNs)以解决任意高维 PDEs,并理论上证明了其收敛性和其他所需属性。
Jul, 2023