UGrid:一种高效且严谨的线性偏微分方程神经多重网格求解器
本文提出了一个学习多重网格求解器的框架,使用一个参数化PDE族的单一映射来训练一个神经网络,从而构造出适用于不同规模问题的最优细分矩阵,提高了算法的收敛速率。
Feb, 2019
本论文利用神经信息传递的方法,构建了一种能够解决具有多种性质的偏微分方程数值解的求解器,并提出了一种基于稳定性领域适应的方法,在1D和2D中验证其在各种流体状况下的快速、稳定和准确性能。
Feb, 2022
本文提出了一种新颖的 GNN 结构,称为多级网格图神经网络 (MG-GNN),用于学习两级 DDM 中的最优化参数,并使用一种新的无监督损失函数对其进行训练。我们展示了 MG-GNN 在优化方面优于其他流行的层次图网络架构,并且证明了我们提出的损失函数对于实现这种改进的性能是至关重要的。
Jan, 2023
该论文提出了一种将多层求解器和基于神经网络的深度学习方法相结合的新方法,用于解决高维参数的偏微分方程数值解问题,并在理论和实验方面都得到了验证。
Apr, 2023
数值逼近偏微分方程在高维度上面临巨大挑战,因为传统的基于网格的方法受到维度灾难的困扰。最近的尝试依赖于蒙特卡罗方法和变分公式的结合,使用神经网络进行函数逼近。本文在前人工作的基础上,认为张量网络为抛物型偏微分方程提供了一个吸引人的框架:在反向随机微分方程和回归型方法的重构相结合的方法中,利用潜在低秩结构实现了压缩和高效计算的优势。强调连续时间观点,我们开发了迭代方案,其在计算效率和稳健性方面有所不同。我们在理论上和数值上都证明了我们的方法能在精度和计算效率之间取得有利的权衡。而以往的方法要么准确要么快速,我们已经找到了一种新的数值策略,经常能够同时兼顾这两个方面。
Jul, 2023
通过设计模块化和强健的框架,引入核加权校正残差(CoRes)将核方法和深度神经网络相结合,提高了求解非线性偏微分方程系统的性能,并显著降低了神经网络对随机初始化、架构类型和优化器选择等因素的敏感性。
Jan, 2024
我们提出了一种基于有限维控制的方法来近似解决高维演化型偏微分方程的解算符。通过使用通用的降阶模型,例如深度神经网络,我们将模型参数的演化与相应函数空间中的轨迹连接起来。利用神经常微分方程的计算技术,我们学习参数空间上的控制,从而使受控轨迹与PDE的解非常接近。对于一类二阶非线性PDE,我们验证了近似精确度。对几个高维PDE,包括解决Hamilton-Jacobi-Bellman方程的真实应用,我们展示了所提方法的准确性和效率。
Jan, 2024
我们提出了一种简便的无矩阵神经网络结构用于多重网格方法。该结构简单到可以在不到五十行的代码中实现,但包含许多不同的多重网格求解器。我们认为,固定的神经网络没有密集层不能实现高效的迭代方法。因此,标准的训练协议不能生成竞争优势的求解器。为了克服这个困难,我们使用参数共享和层序列化。所得到的网络可以在数以千计未知元的线性问题上进行训练,并在百万未知元的问题上保持其效率。从数值线性代数网络的训练角度来看,它对应于找到几何多重网格方法的最佳平滑器。我们在几个二阶椭圆方程上演示了我们的方法。对于测试的线性系统,与基本线性多重网格方法的Jacobi平滑器相比,我们得到的误差传播矩阵的谱半径较小,是其2到5倍。
Feb, 2024
利用神经网络在粗粒化离散空间中学习系统的动力学,并通过降维简化了时间模型的训练过程,同时展示了与在全序空间上操作的神经PDE求解器相比,该方法具有竞争力的准确性和效率。
Feb, 2024
基于代理神经网络的偏微分方程求解器在加速求解偏微分方程方面具有潜力,但它们在固定域大小、几何布局和边界条件的系统中受到限制。我们提出了专门的神经加速器驱动的域分解方法(SNAP-DDM),一种基于DDM的偏微分方程求解方法,其中包含具有任意边界条件和几何参数的子域问题,通过一组专门的神经算子准确求解。我们将SNAP-DDM应用于二维电磁学和流体力学问题,并展示了网络架构和损失函数工程的创新如何产生近乎完全精确的专用代理子域求解器。我们利用这些求解器以及标准DDM算法准确求解自由形状的电磁学和流体问题,其域大小范围广泛。
May, 2024