一种使用受物理约束的神经网络的广义的Schwarz类型的非重叠域分解方法
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向PDE网络(BiPDE网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性Burgers方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020
本文介绍了一种新的技术方法,将机器学习的两种方法进行融合,通过物理知识驱动的神经网络和卷积神经网络相结合,解决了部分微分方程(PDE)的求解问题,实现了快速且连续的解决方案。通过在不需要预先计算训练数据的情况下,只使用物理信息的损失函数进行训练,同时展示了该方法在不可压缩Navier-Stokes方程和阻尼波动方程中的应用。
Sep, 2021
本文提出了一种新颖的 GNN 结构,称为多级网格图神经网络 (MG-GNN),用于学习两级 DDM 中的最优化参数,并使用一种新的无监督损失函数对其进行训练。我们展示了 MG-GNN 在优化方面优于其他流行的层次图网络架构,并且证明了我们提出的损失函数对于实现这种改进的性能是至关重要的。
Jan, 2023
Mosaic Flow是一种新颖的域分解方法,通过推理利用在小域上预训练的网络,在大域上纯粹进行偏微分方程求解,实现高度的可重用性。本文介绍了Mosaic Flow的端到端并行化,将数据并行训练和域并行化相结合,用于大规模问题的推理。通过优化网络架构和数据并行训练,我们将学习拉普拉斯算子的训练时间显著缩短为32个GPU上的几分钟。此外,我们的分布式域分解算法使得在32个GPU上能够在域尺度大于训练域4096倍的情况下解决拉普拉斯方程,展示了较强的扩展性同时保持精度。Mosaic Flow的可重用性结合分布式内存算法所实现的性能改进,使其成为建模复杂物理现象和加速科学发现的有前景工具。
Aug, 2023
本文通过使用Schwarz交替方法将物理信息神经网络(PINNs)与传统数值模型进行耦合,探索了在非线性偏微分方程中加速神经网络训练的方法,并在一维平流-扩散方程中验证了该方法对提高PINN训练的有效性。
Nov, 2023
综述了黑箱机器学习方法与传统数值方法和领域专业知识相结合的混合算法在科学机器学习和各种工业领域,尤其是计算科学与工程中的重要性日益增长。对结合机器学习和区域分解方法的研究进行了调查,包括:经典机器学习的区域分解,用于加速物理感知神经网络训练的区域分解,使用机器学习改善区域分解方法的收敛性或计算效率,以及机器学习作为解决偏微分方程区域分解方法的离散化方法。在每个领域,总结了现有工作和重要进展,并最后讨论了未来研究的挑战和机会。
Dec, 2023
本文提出了一种基于对称群的域分解策略,以增强物理信息神经网络(PINN)对具有李对称群的偏微分方程(PDE)的正向和反向问题的求解能力,该方法通过将整个训练域划分为多个不重叠的子域,并利用PINN和对称增强PINN方法在每个子域中学习解决方案,最后将它们拼接成PDE的整体解。通过Korteweg-de Vries方程和非线性粘性流体方程的数值结果表明,该方法显著提高了学习解的精度。
Apr, 2024
基于代理神经网络的偏微分方程求解器在加速求解偏微分方程方面具有潜力,但它们在固定域大小、几何布局和边界条件的系统中受到限制。我们提出了专门的神经加速器驱动的域分解方法(SNAP-DDM),一种基于DDM的偏微分方程求解方法,其中包含具有任意边界条件和几何参数的子域问题,通过一组专门的神经算子准确求解。我们将SNAP-DDM应用于二维电磁学和流体力学问题,并展示了网络架构和损失函数工程的创新如何产生近乎完全精确的专用代理子域求解器。我们利用这些求解器以及标准DDM算法准确求解自由形状的电磁学和流体问题,其域大小范围广泛。
May, 2024
提出了一种用于解决偏微分方程的极限学习机(ELM)方法,通过使用单隐藏层前馈神经网络预设隐藏层中的权重/偏置系数并使用线性最小二乘方法来训练神经网络的输出层参数,提高了ELM的训练速度。同时,引入非重叠域分解方法(DDM),结合本地神经网络和辅助变量,在大规模系统中实现高逼近质量。实验结果验证了该方法在加速性能方面的有效性。
Jun, 2024
本研究解决了物理信息机器学习中偏微分方程(PDEs)边界条件的约束问题。提出了一种创新的非重叠施瓦茨型域分解方法,通过对每个子域使用物理和等式约束的人工神经网络进行改进,有效降低了通信开销。该方法在多个正向和反向问题中展现了优越的并行性能和良好的泛化能力,能够在统一框架内同时求解多尺度的拉普拉斯和亥姆霍兹方程。
Sep, 2024