融合框架的转移算子学习
神经网络具有普适逼近能力,使用一层隐藏层即可精确逼近任何非线性连续算子,但需要 DeepONet 结构通过降低泛化误差以实现其潜力应用。
Oct, 2019
本文提出了一种被称为物理学知识不同DeepONets的新模型类,通过使用自动差分在模型训练期间施加软惩罚约束来实现重力定律,其将DeepONet模型输出偏向于确保物理一致性,进而显著提高DeepONets的预测准确性,并大大减少了大型训练数据集的需求。
Mar, 2021
本文介绍了一种扩展了输入功能的神经网络结构-Enhanced DeepONet,该结构可接受多个输入功能,通过内积与输出卡车网络连接,可用于模拟偏微分方程。数值结果表明,Enhanced DeepONet的精度约为全连接神经网络的7-17倍或简单扩展DeepONet的2-3倍。
Feb, 2022
通过使用有限的高保真数据集进行训练,我们提出了一种基于深度算子学习的框架,它能够在减少工作量的同时获得准确的实验和计算数据。我们的方法首先使用物理引导的Fourier特征深度算子网络通过广泛的数据集学习低保真解决方案的基本模式,然后通过物理引导的Fourier特征残差深度算子网络提高低保真网络输出,使用少量的高保真数据集进行训练,从而获得高保真解决方案。结果表明,我们提出的框架中物理引导的Fourier特征深度算子网络相比于基于数据驱动的方法在预测升力和阻力系数方面具有更好的预测能力。
Nov, 2023
深度运算符网络(DepthONets)是一类学习函数空间之间映射的神经运算符,最近已被发展成为参数化偏微分方程(PDEs)的替代模型。本文提出了一种增强导数的深度运算符网络(DE-DepthONet),利用导数信息提高预测精度,尤其在训练数据有限时能提供更准确的导数近似。DE-DepthONet将输入的维度降低到DepthONet,并在损失函数中引入两种类型的导数标签进行训练,即输出函数相对于输入函数的方向导数和相对于物理域变量的梯度。我们在三个不断增加复杂度的方程上测试了DE-DepthONet,以证明其相对于普通DepthONet的有效性。
Feb, 2024
神经算子学习模型被证实为部分微分方程在各种应用中的高效代理方法,本文通过建立理论基础将变压器作为算子学习模型实现通用逼近性,并应用于预测具有不同初始条件和强迫项的有限正则性动力学系统的解。
May, 2024
该论文探讨了可以推导出偏微分方程的操作学习模型,而无需重新训练。我们引入了两个创新模型,基于边界积分方程(BIE):边界积分型深度操作网络(BI-DeepONet)和边界积分三角深度操作神经网络(BI-TDONet),它们被设计用于处理不同领域的偏微分方程。一旦完全训练,这些基于BIE的模型能够熟练地预测任何域中的偏微分方程的解,而无需额外的训练。BI-TDONet通过利用有界线性算子的奇异值分解(SVD)来提高性能,从而实现了输入函数在模块间的高效分布。此外,为了解决效果不好的函数采样值无法有效捕捉振荡和脉冲信号特性的问题,BI-TDONet将三角系数作为输入和输出。我们的数值实验证明了这个理论框架的有效性。
Jun, 2024
引入了一种名为分离操作符网络(SepONet)的新框架,通过使用独立的主干网络分别学习不同坐标轴的基函数,利用前向模式自动微分实现更快速和更高效的物理信息操作符学习训练,实验证明了其在不同偏微分方程问题上相对于PI-DeepONet的高效性能。
Jul, 2024
本研究解决了在偏微分方程(PDE)中应用多任务学习(MTL)所面临的复杂性和适应性问题。我们提出了一种多任务深度算子网络(MT-DeepONet),通过同时训练多种源项和几何形状来提高模型的泛化能力。实验结果表明,该框架不仅减少了训练成本,还有助于在新几何任务上实现更好的迁移学习能力。
Aug, 2024