Oct, 2023
利用神经常微分方程在不连续Galerkin方法中学习亚网颗粒模型以处理可压性Navier-Stokes方程
Learning Subgrid-Scale Models in Discontinuous Galerkin Methods with
Neural Ordinary Differential Equations for Compressible Navier--Stokes
Equations
TL;DR通过使用神经常微分方程在间断Galerkin空间离散化的背景下,我们提出了一种学习部分微分方程模拟时子网格规模模型效应的新方法,通过连续水平学习低阶DG求解器中丢失的尺度,从而提高低阶DG逼近的准确性并以一定程度的精度加速滤波器高阶DG模拟。我们通过不同雷诺数和时间的多维Taylor-Green涡旋实例演示了我们方法的性能,涵盖了层流、过渡和湍流状态。提出的方法不仅可以从低阶(1阶)逼近重建子网格规模,还可以将滤波高阶(6阶)DG模拟加速两个数量级。