针对网络攻击的自主四旋翼安全控制系统
该论文提出基于高斯过程的数据驱动方法,学习部分未知环境下四旋翼的模型,采用屏障证明方法确保学习过程的安全,并设计了学习控制器以及递归高斯过程预测方法,模拟结果表明该方法的有效性。
Oct, 2017
本文提出了一种对抗性强化学习算法以最大化自主车辆动态控制对网络物理攻击的鲁棒性,通过分析状态估计过程并在博弈理论框架中研究了攻击者和自主车辆之间的互动以及提出了长短期记忆的使用,同时研究了数据处理的过程以提高面对网络物理攻击的鲁棒性。
May, 2018
研究了机器学习在具备恶意状态/执行机构攻击下的表现,介绍了深度强化学习在决策和控制任务中存在漏洞的问题,提出了通过对抗训练来提高深度强化学习代理的抗干扰性以实现系统的稳定性和鲁棒性。
Jul, 2020
提出了一个名为 safe-control-gym 的新开源基准套件,支持模型和数据驱动控制技术,在 3 个动态系统和 2 个控制任务上提供实现,并建议将 OpenAI 的 Gym API 扩展为支持符号动态和限制条件的查询,并演示如何使用 safe-control-gym 来量化比较传统控制、基于学习的控制和强化学习的多种方法的控制性能、数据效率和安全性。
Sep, 2021
提出一种深度强化学习(DRL)控制器,通过将耦合的 Q 值学习模型分解为安全感知和效率两个模型,利用周围入侵者的信息作为输入来帮助解决自主自由飞行的冲突。通过该控制器,可以在克服 DRL 控制器的解释性和安全性问题的情况下提高控制任务的性能,同时提供关于环境安全情况的丰富信息。
Nov, 2022
在包含障碍物的环境中,我们提出一种使用端到端深度强化学习(DRL)控制无人机群的方法,该方法通过提供课程和剪辑碰撞情景的重放缓冲区来改善性能,并且实现了对邻居机器人和障碍物交互的注意机制。这是首次成功地将该机制应用于在计算资源受限的硬件上部署的群体行为策略,我们的方法可以在模拟环境中实现32架机器人并达到80%的障碍物密度,在实际物理环境中可以实现8架机器人并达到20%的障碍物密度,并且可以零-shot地转移到真实的无人机上。
Sep, 2023
通过使用基于强化学习的异态actor-critic架构和高度可靠的基于强化学习的训练方法,本研究提出了一种新颖的无人机控制框架,能够在仅18秒的训练时间内实现从模拟环境到真实环境的快速转化,并能在廉价的、现成的无人机上实现实时控制。同时,本研究通过介绍控制抽象、非线性和领域参数的分类以及引入一个全新的课程学习和高度优化的模拟器,提高了样本的复杂度和训练时间,并通过与现有控制解决方案的实验比较,展示了该框架在航迹跟踪方面具有竞争性能。
Nov, 2023