我们提出了一种基于神经网络的元学习方法,用于高效解决偏微分方程(PDE)问题。该方法通过元学习来解决各种各样的 PDE 问题,并将这些知识用于解决新的 PDE 问题。我们使用神经网络将 PDE 问题编码成问题表示,其中,控制方程由偏导数的多项式函数的系数表示,边界条件由一组点条件对表示。我们将问题表示作为神经网络的输入来预测解决方案,通过神经网络的前向过程,我们能够高效地预测特定问题的解决方案,而无需更新模型参数。为了训练我们的模型,我们最小化在基于物理知识的神经网络框架中适应 PDE 问题时的预期误差,通过这种方式,即使解决方案未知,我们也能评估误差。我们证明了我们提出的方法在预测 PDE 问题的解决方案方面优于现有方法。
Oct, 2023
利用神经网络在粗粒化离散空间中学习系统的动力学,并通过降维简化了时间模型的训练过程,同时展示了与在全序空间上操作的神经 PDE 求解器相比,该方法具有竞争力的准确性和效率。
Feb, 2024
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向 PDE 网络 (BiPDE 网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性 Burgers 方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020
发展了一种数据驱动输入输出图像无限维空间的近似方法,使用了神经网络和深度学习并结合模型缩减的思想,该方法在概念上定义于无限维空间上,并在实践中对计算所需的有限维空间的维度稳健,通过对输入输出映射的一类概率测度的选择,证明了所提出近似方法的收敛性。数值实验表明了该方法的有效性,并将其与现有的算法相比较。
May, 2020
参数化偏微分方程、神经算子、物理信息训练、不规则域形状和可变网格尺寸的研究
Apr, 2024
通过解决受约束的优化问题并使用类似于物理 - Informed 神经网络(PINN)的中间状态表示,我们将 PDE 表示为神经网络,以发现 PDE。我们使用惩罚方法和广泛使用的约束 - 区域障碍方法解决了此约束优化问题,并在数值示例上比较了这些方法。我们对 Burgers' 和 Korteweg-De Vreis 方程的结果表明,后一种约束方法在更高的噪声水平或更少的空间插值点上表现优于惩罚方法。对于这两种方法,我们使用传统方法(如有限差分方法)解决这些发现的神经网络 PDE,而不是依赖于自动微分的 PINNs 类型方法。我们简要介绍其他一些小但至关重要的实施细节。
May, 2024
本研究提出了一种名为 latentPINN 的框架,通过将偏微分方程(PDE)参数的潜在表示作为额外的输入进行 PINN 模型的训练,使用两个阶段的训练来学习 PDE 参数的潜在表示,并通过在解决区域内随机生成空间坐标和 PDE 参数值的样本进行物理感知神经网络的训练,试验结果表明该方法在不需要任何额外训练的情况下可以很好地适用于不同的 PDE 参数。
May, 2023
本文利用隐式神经表示法 (INR) 对偏微分方程进行建模,通过增强基于坐标的体系结构与图神经网络 (GNN) 的联合使用,能够进行零 - shot 泛化到新的不均匀网格和长期预测,同时维持物理一致性,MAgNet 推广到不同的网格和分辨率上,能够匹敌现有的基线,并在各种 PDE 仿真数据集上进行了比较准确的预测。
Oct, 2022
通过将偏微分方程转化为边界积分方程,我们提出了一种新颖的物理信息神经算子方法,可在没有标记数据的情况下解决参数化边界值问题,并且能够处理无界问题。
Aug, 2023
为了学习偏微分方程(PDEs)中的解算符,我们引入了神经参数回归(NPR)这一新颖框架。通过采用物理知识引导神经网络(PINN)技术对神经网络(NN)参数进行回归,该方法超越了传统的 DeepONets。我们的方法通过在每个解中基于特定初始条件进行参数化,有效地近似了函数空间之间的映射。通过引入低秩矩阵,我们的方法提高了参数效率,从而提升了计算效率和可扩展性。该框架在面对新的初始和边界条件时显示出显著的适应性,即使在分布之外的示例情况下也能进行快速微调和推断。
Mar, 2024