该研究提出了一种名为等式学习器(EQL)的新型函数学习网络,可以学习解析表达式,并能够外推到未知的领域。通过稀疏正则化可以得到简洁明了的可解释表达式,可用于高效的基于梯度的训练。
Oct, 2016
该篇论文处理的是一种监督式学习框架,利用神经控制微分方程预测来自不规则采样时间序列的结果,并通过理论结果与神经网络的 Lipschitz 常数关联,从而上界估计经验风险最小化器得出的期望损失与真实预测器期望损失之间的归纳差距。
May, 2023
Constrained Equation Learner Networks 提出了一种新的受限回归学习框架,用于编程演示中的轨迹适应问题,通过学习一组分析表达式作为基函数,利用它们来最小化与训练数据的偏差,同时满足所需的适应性约束来解决轨迹适应问题,通过在仿真实验和实际机器人任务中的比较,实验证明该方法相对于现有方法能够提高机器人技能的泛化性和适应性。
Nov, 2023
我们通过控制理论研究将深层残差神经网络作为连续动力系统的表达能力。具体而言,我们考虑从监督学习中产生的两个特性,即通用插值 - 能够匹配任意输入和目标训练样本,以及紧密相关的通用逼近 - 能够通过流映射逼近输入 - 目标函数关系。在控制结构变换族具有仿射不变性的假设下,我们给出了通用插值的表征,证明了非线性网络结构基本上都具备这一特性。此外,我们阐明了通用插值和通用逼近在一般控制系统背景下的关系,证明了这两个特性不能从彼此推导出来。同时,我们确定了控制结构和目标函数的条件,确保了这两个概念的等价性。
Sep, 2023
本文研究使用数据驱动框架和神经网络来预测复杂的非线性时空过程,并表现出显著的改进。
Feb, 2019
本文提出了一种使用神经随机微分方程学习控制动力学模型的框架和算法,能够构建模型预测控制算法以及模型基的增强学习领域中的仿真器,在模拟机器人系统中得到良好的应用。
Jun, 2023
本文将深度卷积神经网络的前向传播解释为一种时变的非线性微分方程,并将其训练过程看作微分方程参数的控制过程,提出了两种新的多尺度方法以缩放 CNN,第一种方法通过 CNN 参数的伸缩,连接低分辨率和高分辨率数据,实现使用低分辨率图像训练的 CNN 对高分辨率图像进行分类,并加速学习过程,第二种方法通过连接浅层和深层网络,逐渐增加 CNN 的深度并复用参数进行初始化。
Mar, 2017
通过离散化有控制的常微分方程(也称为神经常微分方程)以及一些连接性,我们研究表达性质并展示了通用差错的普适插值性质(比通用逼近性质稍弱),并探究最少参数个数在保证表达能力的情况下的取值。
Aug, 2019
本文提出了一种基于深度学习的方法,可以从散乱的、有可能带有噪声的时空数据中,发现非线性偏微分方程,该方法通过两个深度神经网络来近似未知解和非线性动力学,并测试了其在多个科学领域的效果。
Jan, 2018
本文提出了使用神经网络对力学系统的 Lagrangian 以及作用在该系统上的广义力进行建模的方法,说明该方法优于黑匣子模型的数据效率和模型强化学习性能,并进行了系统研究以验证该方法融入先前知识提高了其数据效率。