基于小波的高效物理信息神经网络用于奇异扰动问题
通过测试传统PINN方法的表达能力,本论文提出了一种分布式PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态Navier-Stokes方程。
Jul, 2019
本文提出Finite Basis PINNs (FBPINNs)方法用于解决大规模微分方程问题。FBPINNs受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的PINNs方法具有更好的性能表现。
Jul, 2021
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用PINN以及它的许多其他变体解决PDE、分数方程、积分微分方程和随机PDE的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
提出了一种名为PINNsFormer的基于Transformer的新型框架,通过在Transformer模型中利用多头注意力机制捕捉时间依赖关系,准确地近似了偏微分方程(PDE)的解。PINNsFormer不仅适应了输入向量到伪序列和基于点的PINNs损失到序列PINNs损失的转变,还配备了一种名为Wavelet的新型激活函数,通过深度神经网络预估了傅里叶分解。通过大量实验,验证了PINNsFormer在多种情景下捕获PDE解的能力,并与传统PINNs相比,以极小的计算和内存成本,实现了更高的近似精度。
Jul, 2023
物理启发的神经网络(PINNs)通过将深度学习与基本物理原理相结合,为解决偏微分方程中的正向和反向问题提供了一种有前途的方法。本研究从神经网络架构的角度深入探讨了PINN优化的复杂性,利用神经切向核(NTK),揭示了高斯激活提供了比其他激活函数更有效训练PINNs的优势。在数值线性代数的启示下,我们引入了一种经过预处理的神经网络架构,展示了这种定制架构如何增强优化过程。我们通过对科学文献中已有的偏微分方程进行严格验证,证实了我们的理论发现。
Feb, 2024
对物理启发机器学习中的物理信息神经网络和相关模型的数值分析结果进行综合评述,并重点阐述了在近似偏微分方程时PINN所产生的误差在各个组成部分的行为,以及与PDE类型和基础域维度相关的逼近、概括和训练误差的可用结果。同时阐明了解的稳定性和解的规则性对误差分析的作用,最后通过数值结果来说明训练误差对物理启发机器学习中各种模型整体性能的不利影响。
Jan, 2024
提出一种使用变量缩放技术训练物理信息神经网络(PINNs)的新方法,通过对神经切线核(NTK)的分析提供理论证据并证明这种方法确实可以提高PINNs的性能。
Jun, 2024
本研究提出了一种名为数据引导的物理信息神经网络(DG-PINNs)的新框架,通过两个不同的阶段,即预训练阶段和微调阶段,有效地解决神经网络在解决反问题时出现的数据损失高和整体效率低的挑战,并通过对经典偏微分方程的反问题进行广泛的数值验证,证明了DG-PINNs的准确性和对训练数据中噪声的鲁棒性。
Jul, 2024
本研究解决了物理信息神经网络(PINN)在处理奇异扰动微分方程时难以捕捉边界层的挑战。通过引入通用亲缘物理信息神经网络(GKPINN),利用渐近分析获得边界层先验知识,从而显著提升了边界层的近似效果。研究结果显示,GKPINN在减少$L_2$误差方面提升了两个到四个数量级,并显著加快了收敛速度,展现了优异的泛化能力。
Aug, 2024
本研究解决了对流扩散方程中单调扰动问题的数值解难题,传统方法难以准确解析边界层。通过引入物理启发的神经网络(PINNs),本文开发了两种新方法,不仅修正了使用有限差分法获得的离散解,还改进了未扰动问题的简化解,显著提高了解决此类问题的精度和稳定性。
Sep, 2024