研究了强化学习中的安全探索问题,提出了一种叫做 shield 的方法来确保代理人只进行安全的操作,并深度结合使用 state-of-the-art deep RL 来提高 RL 代理人的性能,实验证明这种方法可以提高收敛速度和最终表现,并可用于引导 state-of-the-art RL 代理人。
Apr, 2022
该论文介绍了一种基于时间逻辑表达的安全性要求,用反应系统来指导强化学习算法的政策优化过程,保证学习和执行阶段的安全性。实验表明该方法在多种场景下具有通用性。
Aug, 2017
通过整合形式验证和概率验证工具,将输入域划分为安全和不安全区域,通过聚类和符号表示过程对不安全区域进行压缩,从而在(潜在的)不安全区域高效地临时激活防护,显著减少运行时开销并保持形式安全保证。
Jun, 2024
在训练过程中,通过使用一种名为 ADVICE 的自适应屏蔽技术,可以识别出状态 - 动作对的安全和不安全特征,从而保护强化学习代理避免执行可能产生危险结果的动作,有效降低安全违规风险。
May, 2024
本文介绍了一种新的模型基础的安全增强学习技术 Probabilistic Logic Policy Gradient (PLPG),该技术使用概率逻辑编程将逻辑安全约束建模为可微分函数,可以与任何策略梯度算法无缝集成,同时提供相同的收敛保证,实验结果表明 PLPG 相比其他最新的防护技术具有更高的安全性和更高的回报。
Mar, 2023
通过使用所谓的野蛮方法,本文提出了构建障碍盾牌的方法,通过系统地选择真实转移函数的样本,以提取基于分区的双人安全游戏的近似有限表示。尽管难以达到严格的安全保证,但我们通过原型实现和 UPPAAL STRATEGO 实验证明了强大的统计安全保证,进一步研究了障碍盾牌的合成对控制器学习前和后应用的影响,并在一系列案例研究中应用了我们的技术。
Aug, 2023
通过综述方法与开放问题对最近几年来 RL 的安全和稳健性的相关研究工作进行总结,本文主要关注 RL 系统在现实场景中的安全性和稳健性挑战,探讨了算法、伦理和实践考虑等方面的主要维度以及如何增强 RL 代理的安全性和稳健性,同时讨论了环境因素和人的参与等影响因素,最后提出了一个实用的检查清单,以帮助从业者在各个应用领域负责任地部署 RL 系统。
Mar, 2024
本研究提出两种安全性保障方法,并对多智能体强化学习进行了实验验证。结果表明,这两种方法可以在不损害智能体学习质量的情况下保证其安全,其中,基于因式分解的屏蔽方法在智能体数量上更具可扩展性。
Jan, 2021
我们提出了近似基于模型的屏蔽算法,用于验证学习强化学习策略相对于给定安全约束的性能,与其他安全感知方法相比,在一组具有状态相关安全标签的 Atari 游戏上表现出卓越的性能。
Jul, 2023
本文介绍了在连续环境中实现安全强化学习的方法,使用了适用于连续环境的近似基于模型的屏蔽 (AMBS) 框架,并提出了两种新的惩罚技术来改进策略梯度的稳定收敛性。
Feb, 2024