安全过滤器:自主系统中安全关键控制的统一视角
为了确保机器人等自主车辆的广泛部署,本文提出了一种新的闭环范式用于综合安全控制策略,明确考虑系统在可能的未来情景下的演变不确定性,通过物理动力学和机器人的学习算法共同推理,利用对抗深度强化学习进行放大,展示了该框架能够处理贝叶斯信念传播和大规模预训练神经轨迹预测模型引起的隐式学习。
Sep, 2023
在部署自动驾驶车辆并获得实践经验后,有必要重新审视现有的计算机系统安全的定义和相关概念框架。当前工业安全标准所使用的术语强调对具体识别出的风险进行缓解,并假设基于人类监督的车辆操作。然而,无人驾驶模式极大地增加了安全问题的范围,特别是在开放环境中的操作,自我强制操作限制的要求,参与到自发的社会技术系统中,以及遵守法律和道德约束的要求。现有标准和术语只局部地应对了这些新挑战。我们提出了基于核心系统安全概念的更新定义,以涵盖这些额外的考虑,作为针对这些额外安全挑战不断进化的安全方法的起点。这些结果还可以为其他自主系统应用提供安全术语的构建提供指导。
Apr, 2024
本文提出了一个决策控制框架,将基于规则的技术和基于机器学习的技术结合起来,解决了安全性和多重要求的问题,在自动驾驶中得到了应用。
Jan, 2022
本文综述了机器学习在实现安全决策方面的最新进展,并重点介绍了控制理论和强化学习研究中使用的语言和框架。文章讨论了学习控制方法、强化学习方法和可正式证明学习控制策略安全性的方法,并强调了在近距离与人类操作时安全性至关重要。此外,作者还强调了未来机器人学习研究中需要解决的一些挑战,以及促进控制和强化学习方法公平比较的基于物理的基准测试。
Aug, 2021
通过探讨与保障支持因为设计而参数要求(例如安全性、安全性和可靠性)的合规性的确证缺陷检测、模式依赖以改善确证方案结构、改进现有确证方案符号以及(半)自动化确证方案生成等方面的挑战,提出了一些可能的解决方向。
Jan, 2024
这篇研究论文就如何在机器人系统的学习过程中保证安全性提出了一种新的框架,综合运用了学习控制方法、Hamilton-Jacobi 可达性方法和贝叶斯机制,通过概率和最坏情况分析提供了理论安全保障,并在四旋翼飞行器上实验室验证了其有效性。
May, 2017
通过利用神经网络、凸优化和鲁棒线性模型预测控制,本研究提出了一种新的安全过滤器,以确保神经网络系统在受到建模误差的加性干扰时能保持安全,并通过在非线性摆动系统上的数值实验证明了其有效性。
Aug, 2023