桥接自编码器与动态模式分解用于偏微分方程的降阶建模与控制
本研究提出一种基于深度学习的非线性模型降维策略,通过深度卷积自编码器和LSTM网络构建模块化模型,实现繁重计算任务中的模型降维,同时保持计算效率和系统稳定性。
Aug, 2018
本文提出了一种基于物理约束的深度学习模型,通过自动回归密集编码器-解码器卷积神经网络建模非线性动力学系统,实现对时间步骤的预测量进行不确定性量化,并利用其在多个非线性瞬态偏微分方程系统上进行测试。
Jun, 2019
提出了一种基于图卷积自编码器(GCA - ROM)的非线性模型降阶框架,利用图神经网络(GNNs)对无结构网格上的非参数PDE解进行编码降维,实现对物理和几何参数化设置下具有快速/缓慢衰减的线性/非线性和标量/矢量问题的快速评估和高度通用的数据驱动非线性降阶方法。
May, 2023
最近开发的降阶建模技术旨在从数据中学习的低维流形上近似非线性动力系统。我们介绍了一种由约束的自动编码器神经网络描述的参数化非线性投影类,其中流形和投影纤维都是从数据中学习得到的。此外,我们还提出了一些新的动力学感知成本函数,以促进学习考虑快速动力学和非正常性的斜投影纤维。为了展示这些方法及其解决的特定挑战,我们提供了一个关于涡街现象的三状态模型的详细案例研究。同时,我们还提出了几种基于我们提出的非线性投影框架构建计算高效的降阶模型的技术。这包括一种用于避免计算Grassmann流形上有害的权重矩阵收缩的新型稀疏促进惩罚项的编码器。
Jul, 2023
深度学习在设计偏微分方程的降阶模型(ROMs)方面产生了显著影响,特别是在处理复杂问题以及基于随机领域参数化的随机问题中,深度自动编码器作为一种灵活工具提供了降低问题维数的手段,该研究通过理论分析为深度学习基于ROMs在随机领域参数化问题中的应用提供了一些实用的指导方法,这对于领域专家在选择深度自动编码器的潜在维度时具有重要意义,并通过数值实验证明了理论分析对于DL-ROMs性能的重大影响。
Oct, 2023
控制导向的、结构保持的学习关于高维物理系统的低维近似,重点研究机械系统。我们研究了在模型阶数降低中整合神经自编码器,同时保留哈密顿或拉格朗日结构。我们着重评估所考虑方法的性能,通过在包含数百个状态的大型质量-弹簧-阻尼网络上进行模拟和控制实验。实证结果显示,少于5个自由度的压缩潜在动态可以以约4%的相对总误差准确重构原始系统的瞬态和稳态行为,同时准确重构总能量。利用这种系统压缩技术,我们介绍了一种基于模型的控制器,利用压缩模型的数学结构来调节受强减调控机械系统的配置。
Dec, 2023
使用深度学习中的卷积神经网络 (CNNs) 构建的自编码器在处理复杂的非线性问题时表现出色,并提供了新的数据驱动技术,如物理信息神经网络 (PINNs)、神经算子、深度算子网络 (DeepONets) 和基于深度学习的 ROMs (DL-ROMs)。然而,尽管基于CNN的自编码器在实践中取得了成功,但对于这些架构的理论结果仍然很少,只有一些万能逼近定理的陈述。本研究通过利用稀疏高维函数逼近的最新技术,填补了其中一些空白,并在参数-解映射为全纯函数时,提供了基于CNN的自编码器的一个新的实用存在定理。该规则性假设适用于许多相关的参数化偏微分方程类,例如参数化扩散方程,我们在其中讨论了我们通用理论的明确应用。
Feb, 2024
本研究针对非稳态和非线性偏微分方程存在的模型准确性不足的问题,提出了一种名为transient-CoMLSim的基于领域分解的深度学习框架。该框架通过使用卷积神经网络和自回归模型相结合,显著降低了计算复杂度并提高了可扩展性,能够有效应对大规模模拟,最终证明其在准确性和稳定性方面优于主流深度学习架构。
Aug, 2024
本研究提出了一种潜在动态模型(LDMs)的新数学框架,用于参数化非线性时间依赖偏微分方程的降阶建模,填补了在该领域中非线性降维问题的研究空白。通过引入深度神经网络来近似离散LDM组件,该方法在保持全阶模型的近似精度方面展示了显著的潜力,强调了在时间连续上下文下对解决方案进行高效查询的能力。
Aug, 2024
本研究解决了在短时间内驱动高维参数化系统到达目标点的计算挑战,特别是在迭代最优控制问题中。提出了一种非侵入式的深度学习降阶建模技术,结合适当的降维方法和前馈神经网络,实现了快速的在线最优控制。实验表明,该方法在不同的偏微分方程约束的优化问题中表现出了显著的计算加速和高精度。
Sep, 2024