本文提出了一种基于端口哈密顿形式的神经网络模型用于学习非自主系统中的动态学,能够高效地恢复非线性物理系统的动力学,时间依赖力和耗散系数,并能够学习和预测混沌系统,如 Duffing 方程。
Jul, 2021
本文提出了一种使用神经网络来参数化任意 Lagrangian 的 Lagrangian 神经网络(LNNs),该方法不需要标准坐标,因此可适用于标准动量未知或难以计算的情况,并且在各种任务中产生遵守能量守恒条件的模型,通过在双摆和相对论粒子上的测试表明,该方法可用于建模且不会损耗能量,还可以应用于图形和连续系统,并证明其用于一维波动方程。
Mar, 2020
利用前馈神经网络和热力学第一和第二定律,通过从数据中学习物理系统的方法,以及使用所谓的非平衡可逆耦合通用方程 (GENERIC) 的度规辛结构,可以最小化地使用数据。该方法不需要强制任何平衡方程式,因此不需要关于系统性质的任何先前知识。能量守恒和熵耗散是该方法结构的自然副产品。展示了该方法的性能示例,包括守恒和耗散系统以及离散和连续系统。
Apr, 2020
学习非线性动力系统的神经动力学模型,保持模型的耗散性特性是一个困难的问题。本文通过两个阶段的学习方法,首先得到一个接近系统动力学的神经动力学模型,然后通过权重和偏置的扰动问题解决模型的耗散性和贴近非线性系统轨迹的问题,确保得到一个保证耗散性且接近非线性系统的神经动力学模型。
Sep, 2023
通过将系统嵌入笛卡尔坐标并使用拉格朗日乘子显式地强制执行约束,本文证明了相较于使用广义坐标来编码系统约束的方法,使用笛卡尔坐标可以在准确度和数据效率方面提高 100 倍。
Oct, 2020
本文介绍了一种学习无可逆动力学的新方法,该方法利用 metriplectic 动力学系统的耗散括号的新参数化来学习泛化 Casimirs,此外,我们保证热噪声的情况下精确保存涨落耗散定理以保证热力学一致性。
Jun, 2021
本文提出了一种使用提高了的积分方案的 Hamilton 神经网络,结合使用深度隐藏的物理模型来对保守系统进行数值模拟的方法,可以成功处理低采样率、嘈杂和不准确观测值。
Apr, 2022
本研究利用 Hamilton 力学来为神经网络提供更好的归纳偏差,使其能够在自我监督的状态下学习并遵守物理中的守恒定律;研究表明我们的模型在能量守恒等问题上具有更快的训练速度和更好的泛化性能,并且是一个完全可逆的时间模型。
Jun, 2019
研究物理启发的神经网络的诱导偏差及其应用。表明与常规认识相反,通过直接建模加速度避免人工坐标系的人工复杂性,而不是辛结构或能量守恒,改善了 HNN 的广义性能。在实际中,通过放松这些模型的诱导偏差,可以在能量守恒系统上匹配或超过其性能,同时显著提高非守恒系统上的性能。作者将这种方法扩展到通用 Mujoco 环境的转换模型构建中,展示了我们的模型可以适当地平衡诱导偏差与需求灵活性,从而实现基于模型的控制。
Feb, 2022
使用稀疏贝叶斯方法从有限数据中学习可解释的物理系统的 Lagrangian 描述,自动进行 Hamiltonian 的蒸馏,提供观测系统的常微分方程 (ODE) 和偏微分方程 (PDE) 的描述。
Oct, 2023