利用人工神经网络解决参数化偏微分方程问题
这篇论文揭示了深度人工神经网络在 Kolmogorov PDEs 数值逼近中克服了维数灾难的现象。我们证明了所用 DNN 模型的参数数量在 PDE 维数 d 和逼近精度的倒数 ε 的倒数中,最多呈多项式增长。
Sep, 2018
通过使用神经网络逼近未知解的梯度来解决高维偏微分方程,该算法在包括非线性 Black-Scholes 方程、Hamilton-Jacobi-Bellman 方程和 Allen-Cahn 方程等方程上均取得了精确和低误差的结果。
Jul, 2017
利用深度学习方法解决高维随机偏微分方程的问题。通过使用全连接深度残差网络来逼近随机偏微分方程,在确定逼近深度神经网络的参数时,采用了 SGD 的变种,并在扩散和热传导问题上得到了验证。
Jun, 2018
本文揭示了人工神经网络可用于数值逼近 Black-Scholes PDEs 的实际应用,并证明了它能够在高维函数逼近中克服 “维度灾难”。
Sep, 2018
该论文提出了一种将多层求解器和基于神经网络的深度学习方法相结合的新方法,用于解决高维参数的偏微分方程数值解问题,并在理论和实验方面都得到了验证。
Apr, 2023
本研究旨在通过利用解空间的低维特性,导出 ReLU 神经网络逼近参数化偏微分方程解映射复杂度的上界,具有较传统神经网络逼近结果更优的逼近速率。具体而言,在不了解具体形状的情况下,我们利用小型降维基解的存在性,构建了一些神经网络,以便大范围参数化偏微分方程可以提供这样的参数化解映射逼近,而这些网络的大小基本只取决于基解的大小。
Mar, 2019
本文探讨了近似理论对神经网络在数值分析实际学习问题中的影响,并以基于机器学习的参数化偏微分方程求解为例进行了全面的数值研究。研究表明,参数空间维度与求解子流形的内在维度对模型性能有微弱的影响。通过测试数据的优化和采样来确立测试用例之间的可比性。研究发现,近似理论对数值分析学习问题的实际行为产生了重要影响。
Apr, 2020
本文综述了传统的 PDE 数值逼近方法以及近期的基于机器学习的方法,重点介绍了以神经算子为中心的关键构架,这是一种学习 PDE 解算子的新方法,与传统方法相比具有 1000 倍的计算速度优势,这些新的计算方法可以在解决许多基础和应用物理问题方面带来巨大优势。
Jan, 2023
我们提出了一种基于神经网络的元学习方法,用于高效解决偏微分方程(PDE)问题。该方法通过元学习来解决各种各样的 PDE 问题,并将这些知识用于解决新的 PDE 问题。我们使用神经网络将 PDE 问题编码成问题表示,其中,控制方程由偏导数的多项式函数的系数表示,边界条件由一组点条件对表示。我们将问题表示作为神经网络的输入来预测解决方案,通过神经网络的前向过程,我们能够高效地预测特定问题的解决方案,而无需更新模型参数。为了训练我们的模型,我们最小化在基于物理知识的神经网络框架中适应 PDE 问题时的预期误差,通过这种方式,即使解决方案未知,我们也能评估误差。我们证明了我们提出的方法在预测 PDE 问题的解决方案方面优于现有方法。
Oct, 2023
本文介绍了如何通过 Tensor Neural Networks 来解决 Partial Differential Equations 的问题,实现了与 Deep Neural Network 同样精度的情况下更小的参数及更快的训练速度,并以 Black-Scholes-Barenblatt equation 模型为例进行了测试验证。
Aug, 2022