基于域分解和物理信息神经网络的模型发现
本文提出Finite Basis PINNs (FBPINNs)方法用于解决大规模微分方程问题。FBPINNs受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的PINNs方法具有更好的性能表现。
Jul, 2021
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用PINN以及它的许多其他变体解决PDE、分数方程、积分微分方程和随机PDE的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
该研究提出了一种基于X-PINNs和符号回归的方法,通过数据识别非线性方程中的未知部分,并在面对实际数据中的噪声和数据不足的情况下表现良好。
May, 2023
本文通过研究物理信息驱动的神经网络(PINNs)来编码控制方程,并评估其在两个不同系统的实验数据上的表现。我们发现,在简单的非线性摆系统中,PINNs在理想数据情况下胜过了等效的无信息神经网络(NNs),在10个线性间隔和10个均匀分布的随机训练点上的准确度分别提高了18倍和6倍。在使用来自实验的真实数据进行类似测试的情况下,PINNs相对于NNs的准确度提高了9.3倍和9.1倍,分别对应于67个线性间隔和均匀分布的随机点。此外,我们还研究了物理信息驱动模型在物理系统中的可行性,并选择FPGA作为部署计算的基板。鉴于此,我们使用了一台PYNQ-Z1 FPGA进行实验,并找出了与时间相干感知和空间数据对齐相关的问题。根据提出的系统架构和方法,我们讨论了从这项工作中获得的见解,并列出了未来工作计划。
Jan, 2024
综合应用多保真性堆叠物理信息神经网络和基于域分解的有限基础物理信息神经网络(PINNs)以改善时间相关问题的PINNs性能,表明域分解方法明显提高了PINN和堆叠PINN方法的性能。
Jan, 2024
对物理启发机器学习中的物理信息神经网络和相关模型的数值分析结果进行综合评述,并重点阐述了在近似偏微分方程时PINN所产生的误差在各个组成部分的行为,以及与PDE类型和基础域维度相关的逼近、概括和训练误差的可用结果。同时阐明了解的稳定性和解的规则性对误差分析的作用,最后通过数值结果来说明训练误差对物理启发机器学习中各种模型整体性能的不利影响。
Jan, 2024
本研究针对现有物理信息神经网络在处理大型复杂非线性动态系统时的局限性,提出了域解耦物理信息神经网络(DD-PINN)。其通过将时间域与前馈神经网络解耦构建Ansatz函数,允许闭式计算梯度,显著缩短训练时间,提高预测准确性,验证了其在多个系统中的有效性。
Aug, 2024
本研究解决了物理启发神经网络(PINN)在处理大型复杂非线性动态系统时的局限性。提出的领域解耦物理启发神经网络(DD-PINN)通过解耦时间域与前馈神经网络,提高了训练效率和预测精度,显著缩短了训练时间并保持了准确性。验证结果显示,该方法能够有效学习之前难以处理的大型动态系统,在多种系统上取得了优异表现。
Aug, 2024
本研究针对科学机器学习领域的核心技术——物理信息神经网络(PINNs),探讨其应用与扩展。通过实际案例,展示了如何利用该方法实现数据驱动的微分方程发现,revealing其在科学研究中的重要价值和潜在影响。
Aug, 2024