利用NeurVec加速大规模动力系统模拟数值求解器
本文提出了一种基于深度神经网络的多尺度时间步进方案来数值模拟非线性微分方程的系统,解决了多时间尺度模型的数值模拟问题,同时提高了模拟的准确性和计算效率。
Aug, 2020
本文提出了一种基于正则化的方法,该方法利用自适应微分方程求解器的内部代价启发式和离散相邻灵敏度来引导训练过程,以学习更易于求解的神经微分方程,并在不增加训练成本的情况下加速预测,该方法可应用于常微分方程和神经随机微分方程。
May, 2021
利用神经算子的混合模型有效缩短了气候、化学或天体物理领域的数值模拟所需的计算成本、提升了模型预测精度、并提供了更灵活的可靠的参数化方法。
Jul, 2022
本研究提出一种利用混沌和数学优化的训练算法,可有效解决NeuralODEs实际应用中训练时间长,效果不佳的问题。与传统训练方法相比,该算法在不更改模型架构的情况下,可大幅降低误差值,并能够准确地捕捉真实的长期行为并正确地向未来外推。
Oct, 2022
本文介绍一种训练框架,可对机器学习进行科学计算,并通过缓存数据来减轻同时生成数据的时间延迟。实验表明,该框架在多参数 Lorenz 吸引子的测试中成功缓解了数据偏差,从而可以更好地捕捉系统的复杂混沌动态。
Nov, 2022
本研究提出了一种基于特定解算器或应用程序相关边界条件的ODE属性的方法来改善NeuralODE的稳定性和收敛性,该方法在线性和非线性系统模型中演示了其稳健性以及对局部极小值,不稳定性和稀疏数据样本具有显着的改进并提高了训练的性能。
Feb, 2023
使用自编码器的非线性降维和神经网络的非线性操作推断,通过在降维空间中引入合成约束,解决了混沌动力学的降阶建模问题,使模型既能够保持完全非线性和高度不稳定,又能防止发散,在经典的 Lorenz 方程中进行了演示,并表明我们的方法可以使用更少的数据产生较低误差的中长程预测。
May, 2023
该研究分析了神经操作符模型中自回归误差增长的来源,并探索了减轻其影响的方法,其原理在于引入架构和应用特定的改进,以在不增加计算和内存负担的情况下对这些模型中导致不稳定性的操作进行仔细控制,实验表明采用研究团队的设计原则来构建典型的神经网络模型可以显著降低长期预测的错误率,同时能够在预测时增加8倍的时间跨度而不出现发散的迹象。
Jun, 2023
本文介绍机制性神经网络,它是一种适用于科学中的机器学习应用的神经网络设计。它通过在标准架构中加入新的机制性模块,明确地学习代表物理方程的微分方程,揭示数据的基本动态,并增强数据建模的可解释性和效率。我们的方法的核心是一种新颖的放松线性规划求解器“NeuRLP”,受到一种将线性常微分方程组化简为线性规划求解的技术的启发。这种方法与神经网络结合得很好,并超越了传统常微分方程求解器的局限,实现了可扩展的GPU并行处理。总的来说,机制性神经网络在科学机器学习应用中展示了它们的多样性,能够灵活处理从方程式发现到动态系统建模的任务。我们证明了它们在分析和解释各种复杂科学数据方面的全面能力,并在各个应用中展示出优于专门的最先进方法的显著性能。
Feb, 2024
提出了一种新颖的多步惩罚 NODE(MP-NODE)算法,可以强化学习混沌动力学系统,并显示在短期轨迹预测和代表这些动力学混沌特性的不变统计方面具有可行的性能。
Jun, 2024