使用深度并行神经算子的偏微分方程学习
本文利用深度前馈人工神经网络近似求解复杂几何下的偏微分方程,并演示了如何修改反向传播算法来计算网络输出对空间变量的偏导数。此方法基于一种假设解法,只需要前馈神经网络和梯度优化方法,如梯度下降或拟牛顿方法,可以作为网格法无法使用时的有效替代方案。此外,本文还阐述了深度相比于浅度神经网络的优势及其他收敛增强技术的设想。
Nov, 2017
神经网络具有普适逼近能力,使用一层隐藏层即可精确逼近任何非线性连续算子,但需要 DeepONet 结构通过降低泛化误差以实现其潜力应用。
Oct, 2019
本文介绍了一种扩展了输入功能的神经网络结构-Enhanced DeepONet,该结构可接受多个输入功能,通过内积与输出卡车网络连接,可用于模拟偏微分方程。数值结果表明,Enhanced DeepONet的精度约为全连接神经网络的7-17倍或简单扩展DeepONet的2-3倍。
Feb, 2022
本文对深度神经网络用于偏微分方程(PDEs)求解的现状和潜在应用进行了综述,分析和分类了相关方法在科学研究和工程场景中的应用,介绍了这一领域的来源、历史、特点、类型以及未来趋势。
Oct, 2022
本文提出了一种名为INDEED的基于神经网络的方法,它可以同时从数据中学习运算符并在推理阶段应用于新问题,无需任何重复训练,本方法通过训练单个神经网络作为运算符学习器,不仅可以摆脱为新问题重新调整神经网络的困扰,还可以利用算子之间共享的特性,同时只需少量演示即可学习新的算子。该文的数值结果显示,INDEED 显著提高了模型的准确性并且能够泛化到训练分布之外,甚至适用于未见过的运算符类型。
Apr, 2023
该研究论文介绍了一种名为 CORAL 的新方法,利用基于坐标的网络来解决常规几何图形上的偏微分方程问题,并展示了其在不同分辨率下的稳健表现。
Jun, 2023
我们提出了一种新的分布式方法来放宽离散化要求,解决异构数据集挑战。我们的方法涉及将输入函数空间划分,并使用独立和分开的神经网络处理单个输入函数。通过使用一个集中的神经网络处理所有输出函数中的共享信息,这种分布式方法减少了梯度下降反向传播步骤的数量,提高了效率并保持了准确性。我们证明了相应的神经网络是连续非线性算子的通用逼近器,并提出了四个数值示例来验证其性能。
Oct, 2023
神经常微分方程(NODEs)是基于常微分方程的深度学习中最具影响力的作品之一,它不断推广残差网络,并开创了一个新领域。本文提出了一种基于神经算子的方法来定义时间导数术语,称为分支傅里叶神经算子(BFNO),在各种下游任务中,我们的方法明显优于现有方法。
Dec, 2023
深度运算符网络(DepthONets)是一类学习函数空间之间映射的神经运算符,最近已被发展成为参数化偏微分方程(PDEs)的替代模型。本文提出了一种增强导数的深度运算符网络(DE-DepthONet),利用导数信息提高预测精度,尤其在训练数据有限时能提供更准确的导数近似。DE-DepthONet将输入的维度降低到DepthONet,并在损失函数中引入两种类型的导数标签进行训练,即输出函数相对于输入函数的方向导数和相对于物理域变量的梯度。我们在三个不断增加复杂度的方程上测试了DE-DepthONet,以证明其相对于普通DepthONet的有效性。
Feb, 2024
神经算子学习模型被证实为部分微分方程在各种应用中的高效代理方法,本文通过建立理论基础将变压器作为算子学习模型实现通用逼近性,并应用于预测具有不同初始条件和强迫项的有限正则性动力学系统的解。
May, 2024