基于随机投影神经网络的时间并行解法
本研究旨在通过利用解空间的低维特性,导出ReLU神经网络逼近参数化偏微分方程解映射复杂度的上界,具有较传统神经网络逼近结果更优的逼近速率。具体而言,在不了解具体形状的情况下,我们利用小型降维基解的存在性,构建了一些神经网络,以便大范围参数化偏微分方程可以提供这样的参数化解映射逼近,而这些网络的大小基本只取决于基解的大小。
Mar, 2019
通过测试传统PINN方法的表达能力,本论文提出了一种分布式PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态Navier-Stokes方程。
Jul, 2019
本文介绍了一种利用机器学习方法来减少时间依赖性偏微分方程数值求解误差的方法,使用全卷积LSTM网络来利用偏微分方程的时空动态性,提高常规有限差分和有限体积法的精度,并通过对模拟数据的训练和三个不同动态学特征的偏微分方程实例的演示,表明该方法与其他算法相比误差降低了2到3倍。
Feb, 2020
本文提出Finite Basis PINNs (FBPINNs)方法用于解决大规模微分方程问题。FBPINNs受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的PINNs方法具有更好的性能表现。
Jul, 2021
本文评估物理启发型神经网络(PINN)解决越来越复杂的耦合常微分方程(ODE)的能力。我们着重研究了一对基准问题:离散化的偏微分方程和谐振子,每个问题都有一个可调参数来控制它的复杂性。通过改变网络架构和应用先进的训练方法,我们表明随着复杂性的增加,即方程组数和时间域的大小,PINN 最终无法正确产生这些基准问题的解。我们确定了这种情况可能出现的几个原因,包括网络容量不足、ODE 的条件较差以及 PINN 损失的 Laplacian 所测定的高局部曲率。
Oct, 2022
张量神经网络 (TNNs) 结合了多线性代数和深度学习的成果,能够实现高维问题的高效降维模型。本文描述了一种将多个 TNNs 融合成一个更大网络的深度神经网络架构,旨在解决比单个 TNN 更广泛的问题类别。作者在具有三个独立变量和三个参数的参数型 PDE 上评估了该架构,其中三个参数分别对应一个 PDE 系数和描述域几何的两个量。STNN 在参数范围内提供了准确的降维解描述,并显示出对训练数据之外的参数值有意义的泛化证据。最后,尽管 STNN 架构相对简单且不依赖具体问题,但它可通过正则化来融合特定问题的特征,如对称性和物理建模假设。
Dec, 2023
通过随机投影(RPNNs)的角度,我们研究了前馈神经网络(FNN)的最佳逼近概念,并探索了它们的收敛性质。我们证明了对于任何一类具有非多项式无穷可微激活函数的RPNNs,存在一种选择的外部权重,当近似任何无穷可微函数时呈指数收敛率。为了说明,我们在五个基准函数逼近问题上测试了RPNNs的函数逼近性能,结果显示RPNNs实现了与勒让德多项式等已建立方法可比的性能,突显了它们在高效准确函数逼近中的潜力。
Feb, 2024
我们提出了一种两尺度神经网络方法,用于使用物理相关神经网络(PINNs)解决具有小参数的偏微分方程(PDEs)。我们直接将小参数纳入神经网络的结构中。该方法能够简单地解决具有小参数的PDEs,无需添加傅里叶特征或其他计算上繁重的截断参数搜索。各种数值实例表明,该方法能够合理准确地捕捉由小参数引起的解中的大导数特征。
Feb, 2024
本文针对刚性线性微分方程的数值解法,分析了结合随机投影的物理信息神经网络(PINNs)的稳定性。研究表明,适当设计的PINNs能提供一致且渐进稳定的数值方案,尤其在高刚性条件下,多重协作随机投影PINNs保证了渐进稳定性,且性能优于传统的隐式方案。
Aug, 2024