从数据中学习稳定证明
我们提供了一个对系统规范进行编码和定义相关证明的通用框架,并提出了一种自动化的方法来形式合成控制器和证明,通过利用神经网络的灵活性提供候选控制和证明函数,同时使用 SMT 求解器提供正确性的正式保证,我们通过开发一个原型软件工具对我们的框架进行测试,并评估其在通过对广泛的基准测试进行控制和证明合成时的有效性。
Sep, 2023
本文提出了有效的技术来综合安全集合和控制律,通过基于凸优化问题的近似来提供改进的可伸缩性质,其中一种方法仅需要近似的线性系统模型和 Lipschitz 连续的未知非线性动力学,展示了数字示例,包括一个自主车队。
Nov, 2017
本文提出了一种基于神经网络构建 Lyapunov 函数并通过训练算法将其适应到状态空间中最大安全区域形状的方法,以学习非线性闭环动力系统的准确安全证明,并在模拟倒立摆中演示了该方法的应用,讨论了如何将该方法与动态系统的统计模型一起用于安全学习算法。
Aug, 2018
通常,学习和控制过程中利用约束安全证书的技术被用于保证安全性,但是过高的模型不确定性可能使得鲁棒安全认证方法变得不可行。本文考虑了基于控制屏障函数(CBF)二阶锥规划的具有鲁棒安全证书的学习环境,在该环境下,如果控制屏障函数证书是可行的,我们的方法将利用它来保证安全性。否则,我们的方法通过探索系统动力学来收集数据,恢复控制屏障函数约束的可行性。我们采用了一种受贝叶斯优化中成熟工具启发的方法。我们证明,如果采样频率足够高,我们可以恢复鲁棒 CBF 证书的可行性,从而保证安全性。我们的方法不需要先验模型,据我们所知,这是第一个在存在偶尔不可行安全证书的情况下无需备份非学习型控制器即可保证安全的算法。
Nov, 2023
论文研究了通过调节策略的输入输出梯度,可以基于可行性半定规划问题获得健壮稳定性的保证,并通过应用于两个去中心化控制任务,证明强化学习代理可以在稳定控制参数空间中具有高性能和长期稳定的学习行为。
Oct, 2018
论文介绍了一种新颖的方法,用于在模型不确定性下合成分布鲁棒的稳定神经控制器和控制系统的证书。通过采用一种新颖的分布鲁棒的 Lyapunov 导数机会约束公式,确保 Lyapunov 证书的单调减少,解决了不确定系统稳定性保证控制器设计中的关键挑战。将这个条件整合到用于训练基于神经网络的控制器的损失函数中,证明了在包括超出分布范围的模型不确定性的情况下,闭环系统的全局渐近稳定性可以得到高可信度的认证。通过在两个控制问题的模拟过程中,将该方法与无关不确定性的基准方法和几个强化学习方法进行比较,验证了所提出方法的有效性和高效性。
Apr, 2024
本研究主要集中于一种操作器推理方法,旨在基于先验假设构建基于低维度动力学模型,这些假设通常基于已建立的物理学或专家见解。我们的主要目标是开发一种能够推断具有固有稳定性保证的二次控制动力学系统的方法。我们研究具有能量保持非线性的控制系统的稳定性特征,从而识别出这些系统在什么条件下是有界输入有界状态稳定的。随后,这些见解被应用于学习过程,从而产生设计上固有稳定的推断模型。我们通过几个数值示例来验证我们提出的框架的有效性。
Mar, 2024