不需了解动力学的情况下控制动态系统是一项重要且具有挑战性的任务。我们提出了一种控制理论方法,通过加入可控性约束来增强数据估计的模型,从而实现从数据中提取更有效的控制器。该方法展示了基于深度神经网络的模型估计与解决方案性质的控制理论保证之间的联系,并在两个标准经典控制系统中证明了其优势。
Nov, 2023
本文基于动态系统和最优控制的视角, 将现有的深度学习理论框架进行整合, 并用随机动态的优化算法作为控制器,为超参数调整提供了一个基于原则的方法。
Aug, 2019
使用深度神经网络从观测中学习预测模型是解决现实世界规划和控制问题的一种有前景的新方法。本文提出了一个新的集成模型学习和预测控制框架,通过逐渐稀疏化神经网络以有效优化算法进行端到端的优化,从而在保证预测准确性的基础上取得更好的闭环控制性能。
Dec, 2023
本研究开发了一种基于 dropout 的深度神经网络自适应控制器,该控制器通过随机选择每个层内的权重进行随机失活,并引入基于 Lyapunov 的实时权重调整规律来实现在线无监督学习。经过非光滑的 Lyapunov 稳定性分析,该控制器保证了跟踪误差的渐近收敛。与无 dropout 正则化的自适应深度神经网络控制器相比,模拟结果显示跟踪误差提高了 38.32%,函数逼近误差改善了 53.67%,控制效果降低了 50.44%。
Oct, 2023
本研究提出了一种基于深度神经网络的控制器,用于拉格朗日系统的轨迹跟踪控制,并通过适当设计神经网络结构来确保任何兼容的神经网络参数下的闭环稳定性,进一步优化神经网络参数可实现改进的控制性能。同时,在系统模型未知的情况下,通过改进的拉格朗日神经网络结构学习系统动力学并设计控制器,在模型逼近误差和外部干扰存在时仍可保证闭环稳定性和跟踪控制性能,并通过仿真验证了该方法的有效性。
Mar, 2024
论文提出了一种在线深度学习框架,使用新提出的 Hedge Backpropagation 方法,实现了对来自稳态和概念漂移情况下的大规模数据集进行自适应深度的 DNN 模型学习。
Nov, 2017
本研究旨在将深度神经网络的训练过程从轨迹优化的角度重新制定,提出了一种基于差分动态规划的优化器,DDP Neural Optimizer(DDPNOpt),其具有层间反馈策略、收敛性高等优点,且在避免梯度消失方面表现出惊人的优越性,展示了基于最优控制理论的算法设计的新思路。
Feb, 2020
该论文提出了一种基于控制理论的新型强化方法,它使用反馈控制构建了一种神经网络架构,通过训练来稳定系统输出,从而增强对抗攻击的防御能力。通过实验结果表明,该方法相比于现有技术在标准测试问题上具有更高的有效性。
Aug, 2023
本研究提出了一种基于模型的强化学习算法,将以前任务的先验知识与在线动态模型适应相结合,实现了高效学习,并且成功地应用于各种复杂机器人操纵任务。
Sep, 2015
提出了一种通过将每个神经网络中的每个层视为动态博弈中的玩家来进行训练的优化器 Dynamic Game Theoretic Neural Optimizer (DGNOpt),该优化器不仅将 OCT-inspired 优化器推广到更丰富的网络类,还通过求解多人合作游戏来提出了一种新的训练原则,并在残差网络和 Inception 网络的图像分类数据集上表现出更好的收敛效果,结合了 OCT 和博弈论的优点,为稳健的最优控制和基于赌博机的优化提供了新的算法机会。
May, 2021