DeepONet:基于算子的普适逼近定理学习非线性算子用于鉴别微分方程
本文介绍了一种扩展了输入功能的神经网络结构 - Enhanced DeepONet,该结构可接受多个输入功能,通过内积与输出卡车网络连接,可用于模拟偏微分方程。数值结果表明,Enhanced DeepONet 的精度约为全连接神经网络的 7-17 倍或简单扩展 DeepONet 的 2-3 倍。
Feb, 2022
深度运算符网络 (DepthONets) 是一类学习函数空间之间映射的神经运算符,最近已被发展成为参数化偏微分方程 (PDEs) 的替代模型。本文提出了一种增强导数的深度运算符网络(DE-DepthONet),利用导数信息提高预测精度,尤其在训练数据有限时能提供更准确的导数近似。DE-DepthONet 将输入的维度降低到 DepthONet,并在损失函数中引入两种类型的导数标签进行训练,即输出函数相对于输入函数的方向导数和相对于物理域变量的梯度。我们在三个不断增加复杂度的方程上测试了 DE-DepthONet,以证明其相对于普通 DepthONet 的有效性。
Feb, 2024
提出了一种使用超网络的方法,即 HyperDeepONet,通过较少的参数来学习复杂操作符,并成功地在较少的计算资源下学习各种操作符,并具有实时预测的能力。
Dec, 2023
本文提出了一种被称为物理学知识不同 DeepONets 的新模型类,通过使用自动差分在模型训练期间施加软惩罚约束来实现重力定律,其将 DeepONet 模型输出偏向于确保物理一致性,进而显著提高 DeepONets 的预测准确性,并大大减少了大型训练数据集的需求。
Mar, 2021
我们提出了一种新颖的深度算子网络(DeepONets)的训练方法,通过将整个复杂训练任务分解为两个简化的子任务,首先训练主干网络,然后顺序训练分支网络,并引入了格拉姆 - 施密特正交化过程以提高稳定性和泛化能力。
Sep, 2023
通过随机投影算子网络(RandONets)解决动态系统的逆问题,实现线性和非线性算子的学习,降低参数空间维度,证明了 RandONets 对非线性算子和线性非线性演化算子的普适逼近准确性,相对于传统深度算子网络 DeepONets 具有更高的数值逼近精度和计算效率。
Jun, 2024
本研究介绍了神经算子,它是一种学习算子的新型神经网络,能够在无限维函数空间中进行映射。我们证明了神经算子的广义逼近定理,可以逼近任何连续非线性算子。研究还提出了四类高效的参数化方法,并在偏微分方程的解算子的代理映射中应用了神经算子,结果表明相较于传统 PDE 求解器和现有的机器学习方法,神经算子具有更好的性能优势且速度更快。
Aug, 2021
通过深度神经网络导出和分析了一种近似解决随机微分方程的新方法,该方法的架构灵感来自于函数空间中的操作符学习的概念,并通过网络表示了一个降维基础。在我们的设置中,我们利用随机过程的多项式混沌展开(PCE)并将相应的架构称为 SDEONet。该方法旨在通过学习维纳混沌展开式的最佳稀疏截断来减轻指数复杂性问题,并通过数值实验展示了在一维和高维中建议方法的有希望性能。
Feb, 2024
提出了 GraphDeepONet,一种基于 GNN 的自回归模型,能够适应 DeepONet 并有效地学习操作符,具有在不规则网格上预测解以及对时间依赖性 PDE 解进行时间外推的能力。对 GraphDeepONet 的普适逼近能力进行了理论分析。
Feb, 2024