局部正则化神经微分方程:有些黑盒应该保持关闭!
本文提出了一种基于正则化的方法,该方法利用自适应微分方程求解器的内部代价启发式和离散相邻灵敏度来引导训练过程,以学习更易于求解的神经微分方程,并在不增加训练成本的情况下加速预测,该方法可应用于常微分方程和神经随机微分方程。
May, 2021
提出一种新型深度神经网络模型 —— 连续深度模型,其采用了一个神经网络来参数化隐藏状态的导数,并利用黑箱微分方程求解器计算网络输出,使其具有内存成本不变、能够为每个输入自适应地选择评估策略并能显式进行精度 / 速度权衡等特点。研究者进一步证明了通过此模型可以构造出连续正则化流模型,能够通过最大似然进行训练,而不需要对数据维度进行分区或排序,并展示了如何在较大模型内部向任何 ODE 求解器进行可扩展地反向传播,从而实现 ODE 的端到端训练。
Jun, 2018
该研究论文介绍了一种使用 ODE 的时间序列数据分析方法,提出基于 ODE 的 RNN 模型,可在较短的训练时间内学习具有不规则采样率的连续时间序列,并且计算效率更高、精度更高、设计更简单。
May, 2020
本研究将学习规则和神经 ODE 相结合,构建了连续时间序列处理网络,学习如何在其他网络的快速变化的突触连接中操作短期记忆,这产生了快速权重程序员和线性变压器的连续时间对应物。该模型在各种时间序列分类任务中优于现有的神经控制微分方程模型,同时也解决了它们的根本可扩展性限制。
Jun, 2022
本研究介绍了一个新的神经模型:神经控制微分方程模型,解决了利用常规微分方程对时间动态进行建模时无法针对后续观察调整轨迹的问题,并通过实验和理论结果展示其在较多数据集上实现了与其他神经网络模型相当的最佳性能
May, 2020
神经微分方程是深度学习和动力系统相结合的一个研究领域,可用于解决生成式问题、动力系统和时间序列。本文提供了这个领域的深入调查,并涵盖了神经微分方程的多种类型及其相关的数值方法和符号回归。
Feb, 2022
本文提出了一种有效的组合方法,采用最优输运和稳定性正则化,使神经 ODE 倾向于更简单的动态系统,可以将训练时间显著减少,并且不会损失性能,从而将神经 ODE 应用于大规模应用。
Feb, 2020
本研究介绍了一种新型连续神经网络框架 Neural SDE,该框架自然地融合了基于随机噪声注入的各种常用正则化机制,可用于输入干扰和非对抗性扰动的鲁棒建模,并可实现更好的泛化性能和对抗性强化训练。
Jun, 2019
该研究提出了一种利用高阶导数的可微时间代价替代标准数值求解器的方法以提高神经网络参数差分方程数值求解的效率,并且在监督分类、密度估计和时间序列建模任务中得到了验证。
Jul, 2020