深度学习的均值场最优控制公式
本文介绍了一种基于控制论、深度学习和统计抽样理论的框架,来研究深度神经网络和神经 ODE 模型,包括 Mean-Field Langevin 动力学的梯度流、时间一致传播的混沌性等问题,并提供了与学习速率、粒子数 / 模型参数和梯度算法迭代次数相关的显式收敛速率和量化一般化误差界限。
Dec, 2019
本文基于动态系统和最优控制的视角, 将现有的深度学习理论框架进行整合, 并用随机动态的优化算法作为控制器,为超参数调整提供了一个基于原则的方法。
Aug, 2019
本研究引入了平均场最优控制的概念,该概念是将建模多代理交互的 ODE 约束下的有限维最优控制问题与约束为 Vlasov 类型的 PDE 的无限维最优控制问题的严格极限过程。通过考虑损失函数中 $L^1$ -norm 项,惩罚广泛的控制组,同时促进其稀疏性,我们考虑关注政策制定者受到最佳策略的制约,以实现其与个体群体之间最简洁的相互作用。
Jun, 2013
提出了两种基于神经网络参数的损失函数的数值方法,用于有限时间视野下的 McKean-Vlasov 动力学的最优控制,为确定如何近似于原始均场控制问题的解,引入了一种新的优化问题,并提供了误差率的严格说明。
Aug, 2019
本文介绍了一种基于偏微分方程框架的深度残差神经网络和相关学习问题的方法,并研究了前向问题的稳定性和最优性,同时探究了神经网络、PDE 理论、变分分析、优化控制和深度学习之间的算法和理论联系。
May, 2019
本文基于鲁棒控制的视角讨论神经 ODE 的对抗训练,引入了一种替代经验风险最小化的方法,通过可靠处理输入扰动来实现可靠结果。将深度神经网络解释为控制系统离散化,利用控制理论的强大工具来开发和理解机器学习。我们将带有扰动数据的对抗性训练描述为极小极大最优控制问题,并推导出 Pontryagin's Maximum Principle 形式的一阶最优性条件。我们提供了鲁棒训练的新解释,提出了一种替代加权技术,并在低维分类任务上进行了测试。
Oct, 2023
研究了深度学习算法中存在的对抗性攻击问题,提供了一种新的对抗性训练算法,通过将最小 - 最大问题解释为最优控制问题进行优化,从而大幅度提高训练时间,并通过实验证明了该算法的稳定性和收敛性。
May, 2020
通过蒙特卡洛采样的深度学习方法,将高维随机控制问题的时间依赖控制近似为前馈神经网络,用作控制问题的目标函数,经测试,该方法可以处理高维度问题并且具有令人满意的准确性。
Nov, 2016
通过连续动态系统方法研究深度学习以制定训练算法的替代框架,并将训练重新定义为控制问题,通过 Pontryagin 最大值原理来制定必要的最优条件,进而提出深度学习的另一种训练算法。
Oct, 2017