本文综述了机器学习在实现安全决策方面的最新进展,并重点介绍了控制理论和强化学习研究中使用的语言和框架。文章讨论了学习控制方法、强化学习方法和可正式证明学习控制策略安全性的方法,并强调了在近距离与人类操作时安全性至关重要。此外,作者还强调了未来机器人学习研究中需要解决的一些挑战,以及促进控制和强化学习方法公平比较的基于物理的基准测试。
Aug, 2021
为了确保机器人等自主车辆的广泛部署,本文提出了一种新的闭环范式用于综合安全控制策略,明确考虑系统在可能的未来情景下的演变不确定性,通过物理动力学和机器人的学习算法共同推理,利用对抗深度强化学习进行放大,展示了该框架能够处理贝叶斯信念传播和大规模预训练神经轨迹预测模型引起的隐式学习。
Sep, 2023
本文介绍了机器学习和强化学习在控制和规划自主系统行为方面的应用,同时强调在安全关键的环境下要特别注意算法的可靠性和安全性,为控制理论家们提供一个学习该领域的起点。
Jun, 2019
本文提出了一种安全的深度强化学习自动驾驶系统,采用了基于规则和基于学习的方法,其中包括手工制作的安全模块和动态学习的安全模块,通过模拟环境的实验结果证明了其优异的性能。
Oct, 2019
这篇研究论文就如何在机器人系统的学习过程中保证安全性提出了一种新的框架,综合运用了学习控制方法、Hamilton-Jacobi 可达性方法和贝叶斯机制,通过概率和最坏情况分析提供了理论安全保障,并在四旋翼飞行器上实验室验证了其有效性。
May, 2017
提出一种基于强化学习和动作基元的分层框架,可自主收集和重复使用知识来解决城市环境下自动驾驶面临的挑战和不确定性,通过 CARLA 模拟器的测试,其表现优于其他基线方法。
Jul, 2022
提出了一种满足安全性和实时性约束,利用贝叶斯模型学习和随机 CLFs、CBFs 控制框架的深度神经网络模型不确定性学习的方法,并在高速行进的火星车任务中进行了演示。
AI 控制系统和对抗性解释在增强学习中具有广泛的应用,可用于智能决策工具和训练框架,增强决策和解释的能力,并提供强大的防御能力。
Jul, 2024
本研究通过使用随机森林和深度神经网络来设计一个车辆的横向控制器,并通过预测和控制其信心 / 不确定性来处理它在操作中的不确定性和保证操作安全性,而相对于深度神经网络,基于随机森林的控制器在极少量标记数据的条件下具有更好的泛化能力,并能够在另一个类似的赛道上驾驶,即使在深度神经网络控制器无法驾驶的情况下,同时设置阈值,当控制器不安全时可采取适当的控制措施。
Mar, 2023
本论文旨在明确机器学习安全的定义,并通过研究智能决策科学和数据产品等应用领域,探讨实现机器学习安全的四种策略,包括内在安全设计、安全保护垫、安全失败和程序保护,并提出相应的技术方法和异议函数,以确保解释性、因果性、人工参与和用户体验设计等方面的安全性。
Oct, 2016