通过软约束物理信息神经网络解决振荡器常微分方程的研究
通过测试传统PINN方法的表达能力,本论文提出了一种分布式PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态Navier-Stokes方程。
Jul, 2019
本文提出Finite Basis PINNs (FBPINNs)方法用于解决大规模微分方程问题。FBPINNs受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的PINNs方法具有更好的性能表现。
Jul, 2021
本文研究了物理知识对神经网络的影响,尤其是对物理意义的学习。研究发现,使用以前的方法,神经网络会容易受到微妙的问题的困扰。为了解决这个问题,我们提出了课程规范化和序列到序列学习两种新的方法。通过使用这两种方法,我们可以取得比以前更好的结果。
Sep, 2021
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用PINN以及它的许多其他变体解决PDE、分数方程、积分微分方程和随机PDE的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
本文评估物理启发型神经网络(PINN)解决越来越复杂的耦合常微分方程(ODE)的能力。我们着重研究了一对基准问题:离散化的偏微分方程和谐振子,每个问题都有一个可调参数来控制它的复杂性。通过改变网络架构和应用先进的训练方法,我们表明随着复杂性的增加,即方程组数和时间域的大小,PINN 最终无法正确产生这些基准问题的解。我们确定了这种情况可能出现的几个原因,包括网络容量不足、ODE 的条件较差以及 PINN 损失的 Laplacian 所测定的高局部曲率。
Oct, 2022
本文研究了使用物理启示神经网络(PINN)求解高阶常微分方程(ODE)的数值方法,成功应用于解决不同类别的奇异ODE,介绍了两种方法并比较了它们的优缺点。
Jul, 2023
提供了使用转移学习来增强PINN的鲁棒性和收敛性的训练方法,通过两个案例研究发现转移学习可以有效训练PINN在低频问题到高频问题的近似解,同时减少了网络参数,所需数据点和训练时间。同时提供了优化器选择和使用转移学习解决更复杂问题的指南。
Jan, 2024
物理启发的神经网络(PINNs)通过将深度学习与基本物理原理相结合,为解决偏微分方程中的正向和反向问题提供了一种有前途的方法。本研究从神经网络架构的角度深入探讨了PINN优化的复杂性,利用神经切向核(NTK),揭示了高斯激活提供了比其他激活函数更有效训练PINNs的优势。在数值线性代数的启示下,我们引入了一种经过预处理的神经网络架构,展示了这种定制架构如何增强优化过程。我们通过对科学文献中已有的偏微分方程进行严格验证,证实了我们的理论发现。
Feb, 2024
提出一种使用变量缩放技术训练物理信息神经网络(PINNs)的新方法,通过对神经切线核(NTK)的分析提供理论证据并证明这种方法确实可以提高PINNs的性能。
Jun, 2024