非线性降阶建模中的潜在动态学习
对于展现时空动态响应的系统的演化进行预测是促进科学创新的关键技术,传统基于方程的方法需要大规模并行计算平台和大量的计算成本。相比之下,我们提出了一种名为Latent Dynamics Network的新型架构,该架构使用降维和深度学习算法来描述系统演化的低维潜在空间,从而预测空间依赖场对外部输入的时间演化,并在几个测试案例上验证了该方法的高效性和精确性。
Apr, 2023
提出了一种基于图卷积自编码器(GCA - ROM)的非线性模型降阶框架,利用图神经网络(GNNs)对无结构网格上的非参数PDE解进行编码降维,实现对物理和几何参数化设置下具有快速/缓慢衰减的线性/非线性和标量/矢量问题的快速评估和高度通用的数据驱动非线性降阶方法。
May, 2023
深度学习在设计偏微分方程的降阶模型(ROMs)方面产生了显著影响,特别是在处理复杂问题以及基于随机领域参数化的随机问题中,深度自动编码器作为一种灵活工具提供了降低问题维数的手段,该研究通过理论分析为深度学习基于ROMs在随机领域参数化问题中的应用提供了一些实用的指导方法,这对于领域专家在选择深度自动编码器的潜在维度时具有重要意义,并通过数值实验证明了理论分析对于DL-ROMs性能的重大影响。
Oct, 2023
通过纯数据驱动的工作流程,构建了一套用于分布式动力系统的简化模型(ROMs);所采用的ROMs是由近似惯性流形(AIMs)理论启发,并以此为模板;应用机器学习工具可以避免需要准确的截断Galerkin投影和推导闭合修正的需求;并探讨了通过自动编码器和扩散映射这类流形学习技术发现合适的潜在变量集并进行可解释性测试的方法;该方法可以用理论的(Fourier系数)、线性数据驱动的(POD模态)和/或非线性数据驱动的(扩散映射)坐标表示ROMs;同时描述了黑盒模型和(基于理论和数据纠正的)灰盒模型;灰盒模型是在截断Galerkin投影无法后处理的情况下必要的;文章使用Chafee-Infante反应扩散和Kuramoto-Sivashinsky耗散偏微分方程来举例并成功测试了整个框架。
Oct, 2023
本研究提出了深度潜在力模型(DLFM),它是一种面向领域的方法,用于准确建模高度非线性动力系统并量化不确定性,该模型采用深度高斯过程架构,每个层的核函数基于普通微分方程和过程卷积的框架导出,通过权重空间和变分感应点的高斯过程近似,我们证明了该模型能够捕捉真实世界多元时间序列数据中的高度非线性行为,并且在基准回归任务上与其他概率模型具有可比性能,同时我们还通过实证评估证明了感应点框架对基于LFM的模型的外推能力的负面影响。
Nov, 2023
提出了一种新的数据驱动的降阶建模方法来高效求解参数化的偏微分方程问题,并利用隐式神经表示来对物理信号进行连续建模,而与空间/时间离散化无关。
Nov, 2023
使用深度学习中的卷积神经网络 (CNNs) 构建的自编码器在处理复杂的非线性问题时表现出色,并提供了新的数据驱动技术,如物理信息神经网络 (PINNs)、神经算子、深度算子网络 (DeepONets) 和基于深度学习的 ROMs (DL-ROMs)。然而,尽管基于CNN的自编码器在实践中取得了成功,但对于这些架构的理论结果仍然很少,只有一些万能逼近定理的陈述。本研究通过利用稀疏高维函数逼近的最新技术,填补了其中一些空白,并在参数-解映射为全纯函数时,提供了基于CNN的自编码器的一个新的实用存在定理。该规则性假设适用于许多相关的参数化偏微分方程类,例如参数化扩散方程,我们在其中讨论了我们通用理论的明确应用。
Feb, 2024
通过引入Jerk正则化到压缩的潜在空间的学习中,本文介绍了一个连续操作学习框架,该框架为快速准确的时空预测提供了增强的精度和收敛速度,并有助于识别内在的潜在空间坐标。
Feb, 2024
利用神经网络在粗粒化离散空间中学习系统的动力学,并通过降维简化了时间模型的训练过程,同时展示了与在全序空间上操作的神经PDE求解器相比,该方法具有竞争力的准确性和效率。
Feb, 2024
我们提出了一种多步算法,通过在编码器-解码器网络中引入稀疏性来减少参数的数量和潜在空间的额外压缩。该算法以稀疏初始化网络开始,并使用线性化的Bregman迭代进行训练。在训练之后,我们进一步通过使用一种适当的正交分解形式来压缩潜在空间的维度。最后,我们使用一种偏置传播技术将引入的稀疏性转化为参数的有效减少。我们将该算法应用于三个代表性的偏微分方程模型:1D扩散、1D平流和2D反应扩散。与Adam等传统训练方法相比,该方法在保持相似准确性的同时,减少了30%的参数数量和显著减小的潜在空间。
Jun, 2024