变换物理启发的神经网络用于对流扩散方程
通过测试传统PINN方法的表达能力,本论文提出了一种分布式PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态Navier-Stokes方程。
Jul, 2019
本文提出Finite Basis PINNs (FBPINNs)方法用于解决大规模微分方程问题。FBPINNs受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的PINNs方法具有更好的性能表现。
Jul, 2021
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用PINN以及它的许多其他变体解决PDE、分数方程、积分微分方程和随机PDE的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
本文研究了使用物理启示神经网络(PINN)求解高阶常微分方程(ODE)的数值方法,成功应用于解决不同类别的奇异ODE,介绍了两种方法并比较了它们的优缺点。
Jul, 2023
提供了使用转移学习来增强PINN的鲁棒性和收敛性的训练方法,通过两个案例研究发现转移学习可以有效训练PINN在低频问题到高频问题的近似解,同时减少了网络参数,所需数据点和训练时间。同时提供了优化器选择和使用转移学习解决更复杂问题的指南。
Jan, 2024
提出了一种密集乘积 PINN (DM-PINN) 架构,通过将隐藏层的输出与所有后面的隐藏层的输出相乘,不引入更多的可训练参数,它可以显著提高 PINNs 的准确性。对四个基准示例 (Allan-Cahn 方程、Helmholtz 方程、Burgers 方程和 1D 对流方程) 对所提出的架构和不同的 PINN 结构进行比较,证明了 DM-PINN 在准确性和效率上的卓越性能。
Feb, 2024
对物理启发机器学习中的物理信息神经网络和相关模型的数值分析结果进行综合评述,并重点阐述了在近似偏微分方程时PINN所产生的误差在各个组成部分的行为,以及与PDE类型和基础域维度相关的逼近、概括和训练误差的可用结果。同时阐明了解的稳定性和解的规则性对误差分析的作用,最后通过数值结果来说明训练误差对物理启发机器学习中各种模型整体性能的不利影响。
Jan, 2024
本研究提出了一种名为数据引导的物理信息神经网络(DG-PINNs)的新框架,通过两个不同的阶段,即预训练阶段和微调阶段,有效地解决神经网络在解决反问题时出现的数据损失高和整体效率低的挑战,并通过对经典偏微分方程的反问题进行广泛的数值验证,证明了DG-PINNs的准确性和对训练数据中噪声的鲁棒性。
Jul, 2024
本研究解决了物理信息神经网络(PINN)在处理奇异扰动微分方程时难以捕捉边界层的挑战。通过引入通用亲缘物理信息神经网络(GKPINN),利用渐近分析获得边界层先验知识,从而显著提升了边界层的近似效果。研究结果显示,GKPINN在减少$L_2$误差方面提升了两个到四个数量级,并显著加快了收敛速度,展现了优异的泛化能力。
Aug, 2024