基于视觉端到端驾驶策略的学习稳定注意力
通过学习专家示范来灵活地编程自主系统以实现复杂行为,或者预测代理行为是一个强大的工具,特别是在协同控制环境中。我们提出了一种新颖的稳定性认证逆优化奖励学习法,通过将代价函数推断问题重新表述为从示范数据中学习控制李亚普诺夫函数。我们利用闭合形式表达式和相关控制策略,能够通过观察诱导动力学的吸引子景观有效地搜索李亚普诺夫函数的空间。通过使用最小二乘法构造逆优化李亚普诺夫函数,我们使用凸优化方法来解决问题。我们通过理论分析控制李亚普诺夫函数提供的最优性质,并利用模拟和真实数据来评估我们的方法。
May, 2024
本文介绍了一种基于感知的学习系统的安全保障框架,该系统采用可微控制屏障函数,与常规神经网络结构组合使用,可在有限训练数据下实现优异的测试性能,在自动驾驶情境下保障安全,包括实现车道保持和避障等功能,并在模拟和真实无人车上进行了测试。
Mar, 2022
利用感知地图控制自主车辆的问题,设计针对该感知方案的闭环系统安全集和稳健控制器,方法是从复杂和非线性的数据中提取一些与状态相关的线性函数预测值,并在适当的稠密状态空间采样下学习参数,以获得有利的泛化性能。在合成示例和 CARLA 的自动驾驶模拟平台上验证了该方法的实用性。
Jul, 2019
提出了一种满足安全性和实时性约束,利用贝叶斯模型学习和随机 CLFs、CBFs 控制框架的深度神经网络模型不确定性学习的方法,并在高速行进的火星车任务中进行了演示。
Oct, 2019
本文提出了一种基于多任务学习和注意力模型的新型自动驾驶条件模仿学习网络,通过解决交通灯反应问题,不仅提高了标准基准测试的成功率,而且具备了响应交通信号的能力。
Apr, 2021
使用经典控制理论中的 Lyapunov 方法,为控制系统提供稳定性保证的 actor-critic RL 框架,确保在一定程度的不确定性干扰下,学习到的策略使得系统能够恢复到平衡或航点。
Apr, 2020
本研究探讨了可解释的自动驾驶车辆中使用视觉解释的方法,使乘客、保险公司、执法机构和开发人员能够理解神经网络控制模型的行为,该模型采用了视觉关注模型进行训练,并应用因果过滤步骤来确定哪些输入区域实际上影响了输出。该方法在三个数据集上进行了有效性研究,证明了其在自动驾驶行为和人类驾驶行为中的应用价值。
Mar, 2017
本文提出了一个基于控制栅函数 (control barrier function, CBF) 和控制李雅普诺夫函数 (control Lyapunov function, CLF) 方法的强化学习 (reinforcement learning, RL) 框架,称之为 Barrier-Lyapunov Actor-Critic (BLAC) 框架,它有助于维护系统的安全性和稳定性。本框架通过基于重放缓冲器中采样的数据构建安全性的控制障碍函数约束和稳定性的控制李雅普诺夫函数约束,并使用增广拉格朗日方法来更新基于 RL 的控制器的参数。此外,本文还引入了一种备份控制器,以防安全和稳定性约束无法同时满足时 RL 控制器不能提供有效的控制信号。仿真结果证明,相对于基线算法,该框架产生的控制器可以帮助系统接近期望状态,并导致更少的安全约束违反。
Apr, 2023