神经微分方程
该研究提出一种新的带延迟的连续深度神经网络模型 —— 神经延迟微分方程(NDDEs),使用伴随灵敏度方法计算相应的梯度,并通过多个案例证明其在模拟复杂模型和实际图像数据集方面具有较优的表现,这表明将动态系统因素引入网络设计有助于提高网络性能。
Feb, 2021
本文介绍了一种名为 Neural Delay Differential Equations(NDDE)的连续深度神经网络,使用输入的延迟动态学方程计算相应的梯度,并用数个实际案例展示了 NDDE 比传统模型具有更强的非线性表达能力和性能表现的优势。
Apr, 2023
提出一种新型深度神经网络模型 —— 连续深度模型,其采用了一个神经网络来参数化隐藏状态的导数,并利用黑箱微分方程求解器计算网络输出,使其具有内存成本不变、能够为每个输入自适应地选择评估策略并能显式进行精度 / 速度权衡等特点。研究者进一步证明了通过此模型可以构造出连续正则化流模型,能够通过最大似然进行训练,而不需要对数据维度进行分区或排序,并展示了如何在较大模型内部向任何 ODE 求解器进行可扩展地反向传播,从而实现 ODE 的端到端训练。
Jun, 2018
本文提出了一种基于正则化的方法,该方法利用自适应微分方程求解器的内部代价启发式和离散相邻灵敏度来引导训练过程,以学习更易于求解的神经微分方程,并在不增加训练成本的情况下加速预测,该方法可应用于常微分方程和神经随机微分方程。
May, 2021
本文对深度神经网络用于偏微分方程 (PDEs) 求解的现状和潜在应用进行了综述,分析和分类了相关方法在科学研究和工程场景中的应用,介绍了这一领域的来源、历史、特点、类型以及未来趋势。
Oct, 2022
使用神经网络和偏微分方程提取动态数据中的模型,参数化模型来结合空时样本相关性,在 MNIST 和 Fashion MNIST 上与其他深度神经网络进行了比较,证明本方法能够降低参数成本。
Aug, 2019
该研究论文介绍了一种使用 ODE 的时间序列数据分析方法,提出基于 ODE 的 RNN 模型,可在较短的训练时间内学习具有不规则采样率的连续时间序列,并且计算效率更高、精度更高、设计更简单。
May, 2020
本论文在神经延迟微分方程(Neural DDE)的基础上,提出了一种新的神经状态依赖延迟微分方程(SDDDE)的框架,该方法能更好地适用于包含多个状态依赖延迟的复杂系统,并在多种延迟动态系统的数据上显示了较高的性能。
Jun, 2023
本研究系统地分析了用作机器学习模型的微分方程的一般性质,并证明了损失函数相对于隐藏状态的梯度可被视为一般化的动量,可以应用经典力学的工具。此外,我们还展示了残差网络和前馈神经网络可以与微小非线性权重矩阵偏差只稍微偏离单位矩阵的微分方程相关。我们提出了一种描述这种网络的微分方程并研究了它的属性。
Sep, 2019