基于图卷积自编码器的参数化PDE模型降维
本文提出了一类基于偏微分方程数值方法的图神经网络架构来解决传统卷积神经网络可能存在的过度平滑问题,通过实验证明该方法可以处理不同领域的问题并在某些领域获得优于或相当于当前最先进结果。
Aug, 2021
深度学习在设计偏微分方程的降阶模型(ROMs)方面产生了显著影响,特别是在处理复杂问题以及基于随机领域参数化的随机问题中,深度自动编码器作为一种灵活工具提供了降低问题维数的手段,该研究通过理论分析为深度学习基于ROMs在随机领域参数化问题中的应用提供了一些实用的指导方法,这对于领域专家在选择深度自动编码器的潜在维度时具有重要意义,并通过数值实验证明了理论分析对于DL-ROMs性能的重大影响。
Oct, 2023
提出了一种新的数据驱动的降阶建模方法来高效求解参数化的偏微分方程问题,并利用隐式神经表示来对物理信号进行连续建模,而与空间/时间离散化无关。
Nov, 2023
使用深度学习中的卷积神经网络 (CNNs) 构建的自编码器在处理复杂的非线性问题时表现出色,并提供了新的数据驱动技术,如物理信息神经网络 (PINNs)、神经算子、深度算子网络 (DeepONets) 和基于深度学习的 ROMs (DL-ROMs)。然而,尽管基于CNN的自编码器在实践中取得了成功,但对于这些架构的理论结果仍然很少,只有一些万能逼近定理的陈述。本研究通过利用稀疏高维函数逼近的最新技术,填补了其中一些空白,并在参数-解映射为全纯函数时,提供了基于CNN的自编码器的一个新的实用存在定理。该规则性假设适用于许多相关的参数化偏微分方程类,例如参数化扩散方程,我们在其中讨论了我们通用理论的明确应用。
Feb, 2024
利用神经网络在粗粒化离散空间中学习系统的动力学,并通过降维简化了时间模型的训练过程,同时展示了与在全序空间上操作的神经PDE求解器相比,该方法具有竞争力的准确性和效率。
Feb, 2024
这项工作提出了一种新的解析度无关的模型降阶策略,适用于多保真度应用。我们基于一种新型的神经网络层,即图向前传播网络,构建了我们的架构,将前馈网络的概念扩展到图结构化数据上,通过在神经网络的权重和网格的节点之间创建直接链接,提高了网络的可解释性。我们利用该方法在自参数化偏微分方程的自动编码器降维策略中训练和测试不同网格尺寸。通过误差边界,我们证明了该扩展在性能方面具有可证明的保证。该方法在三个具有挑战性的基准测试中展示了其能力,包括以平流为主的现象和高维参数空间的问题。与最先进的模型相比,该方法的结果更加轻量且高度灵活,在单一保真度和多保真度情境下展现出了卓越的泛化性能。
Jun, 2024
本研究针对非稳态和非线性偏微分方程存在的模型准确性不足的问题,提出了一种名为transient-CoMLSim的基于领域分解的深度学习框架。该框架通过使用卷积神经网络和自回归模型相结合,显著降低了计算复杂度并提高了可扩展性,能够有效应对大规模模拟,最终证明其在准确性和稳定性方面优于主流深度学习架构。
Aug, 2024
本文提出了一种基于域分解的深度学习框架transient-CoMLSim,用于准确建模非稳态和非线性偏微分方程。该框架通过在子域上计算低维基础,显著降低了计算复杂性并提高了可扩展性,其关键发现是在保持预测准确性的同时,能有效扩展到具有多样化域大小的场景。
Aug, 2024
本研究解决了复杂时空动力系统建模与控制中的维数缩减问题,提出了一种深度自编码学习方法,能够有效构建非线性降阶模型。研究发现,此方法在模型学习和控制设计上均表现出色,特别是通过稳定性约束的深度神经网络设计控制器,展现了其潜在的广泛应用。
Sep, 2024