本文介绍一种基于 funnel functions 的可行强化学习算法,用于实现连续状态空间中 STL 规范的鲁棒满足,并在摆和移动机器人示例上演示了该方法的实用性。
Nov, 2022
研究利用时序逻辑生成奖励对深度强化学习进行实时控制,并在多项复杂连续控制基准测试中证实了新模型相较于现有模型更为合适。
Dec, 2022
该论文提出了一种利用近似解决 STL 综合问题的方法,通过最大化已知的效果指标来学习未知随机动态系统的最优策略,在模拟中验证了该方法的有效性。
Sep, 2016
本论文提出了一种新的基于 STL 模板的多智能体强化学习算法以指导奖励设计,实验证明相比没有 STL 指导的情况下,算法能够显著提高多智能体系统的性能和安全性。
Jun, 2023
本文提出了一种新的逻辑 PrSTL 作为表达随机性质和强制其概率保证的表现语言,并展示了如何使用这种逻辑对具有随机性质的智能物理系统进行控制器合成,其关键特点是适应性逻辑并随着系统遇到附加数据而变化,并通过合成多种情况下无人机和自主车辆的控制器来演示我们的方法。
Oct, 2015
这篇论文研究了学习神经网络控制器以满足信号时间逻辑(STL)规范的问题,提出了一种使用可训练高阶控制障碍函数的方法,结合 BarrierNet 进行控制的方案,并证明了该方法的鲁棒性优于现有算法。
Apr, 2023
该论文介绍了一种基于模型的方法,用于针对高度非线性环境中的自主代理训练反馈控制器。我们希望该训练策略确保代理满足以离散时间信号时序逻辑(DT-STL)表达的特定任务目标。为了解决长时间跨度任务目标的问题,我们引入了一种基于随机梯度近似算法的梯度近似算法,并提出了适用于复杂规范的 DT-STL 的新的平滑语义。
Mar, 2024
本文提出了基于信号时间逻辑和控制障碍函数的神经网络控制器综合算法,以优化指定性能目标并满足硬性约束条件,在飞行器和单轮车等测试系统上进行了验证。
Oct, 2022
该研究介绍了一种交互式学习方法,能够从自然语言描述中学习正确、简洁的统一信号时序逻辑公式,并使用深度 Q 学习算法确定机器人的最优控制策略。
Jul, 2022
本文旨在通过研究基于信号时间逻辑(STL)的控制问题的鲁棒度评估方法,从如何帮助基于学习的解决方案的角度探讨现有和潜在的鲁棒度评估方法。研究表明,这项新的鲁棒度测量方法对于加速学习过程非常有效,并通过实例研究进行了验证。
Mar, 2020