一种数据驱动的微分方程计算加速机器学习框架
使用神经网络和偏微分方程提取动态数据中的模型,参数化模型来结合空时样本相关性,在 MNIST 和 Fashion MNIST 上与其他深度神经网络进行了比较,证明本方法能够降低参数成本。
Aug, 2019
本文提出了一种基于正则化的方法,该方法利用自适应微分方程求解器的内部代价启发式和离散相邻灵敏度来引导训练过程,以学习更易于求解的神经微分方程,并在不增加训练成本的情况下加速预测,该方法可应用于常微分方程和神经随机微分方程。
May, 2021
本论文中,我们提出了一个名为 “GrADE” 的新颖框架,以解决非线性偏微分方程的时间依赖性问题,该框架包括 FNN(fully connected neural network)和 Graph Neural Network 以及最近开发的神经 ODE 框架,并使用注意机制来增强其性能。我们将更多的重量分配给重要的输入特征。同时,该框架还使用了 O (1) 常数内存的神经 ODE 框架,提高了速度。我们还提出了深度精炼技术,以更快、更准确地训练该框架,仿真结果表明该框架在解决 PDE 建模的问题上表现卓越。
Aug, 2021
本文综述了传统的 PDE 数值逼近方法以及近期的基于机器学习的方法,重点介绍了以神经算子为中心的关键构架,这是一种学习 PDE 解算子的新方法,与传统方法相比具有 1000 倍的计算速度优势,这些新的计算方法可以在解决许多基础和应用物理问题方面带来巨大优势。
Jan, 2023
该研究提出了一种利用高阶导数的可微时间代价替代标准数值求解器的方法以提高神经网络参数差分方程数值求解的效率,并且在监督分类、密度估计和时间序列建模任务中得到了验证。
Jul, 2020
本研究提出了一种名为 LyaNet 的方法,基于 Lyapunov loss 公式训练普通微分方程,以鼓励推理动力学快速收敛到正确的预测,实验证明相对于标准神经 ODE 训练,LyaNet 可以提供更好的预测性能,更快的推理动力学收敛和更好的对抗鲁棒性。
Feb, 2022
提出一种新型深度神经网络模型 —— 连续深度模型,其采用了一个神经网络来参数化隐藏状态的导数,并利用黑箱微分方程求解器计算网络输出,使其具有内存成本不变、能够为每个输入自适应地选择评估策略并能显式进行精度 / 速度权衡等特点。研究者进一步证明了通过此模型可以构造出连续正则化流模型,能够通过最大似然进行训练,而不需要对数据维度进行分区或排序,并展示了如何在较大模型内部向任何 ODE 求解器进行可扩展地反向传播,从而实现 ODE 的端到端训练。
Jun, 2018
利用深度学习方法解决高维随机偏微分方程的问题。通过使用全连接深度残差网络来逼近随机偏微分方程,在确定逼近深度神经网络的参数时,采用了 SGD 的变种,并在扩散和热传导问题上得到了验证。
Jun, 2018
通过使用内部成本启发式算法,本文开发了两种采样策略来减少函数评估数量并加速预测,与全局正则化相比,我们的方法在普通微分方程和随机微分方程中具有相似的性能而不会影响实施的灵活性。
Mar, 2023
这篇研究论文研究了通过机器学习方法发现复杂修正函数来提高解决偏微分方程数值误差的准确性,发现将求解器集成到训练中的方法比以往的学习方法更有效,文章还强调了不同可微分物理网络在广泛的 PDEs 中的性能表现。
Jun, 2020