本文介绍了在连续环境中实现安全强化学习的方法,使用了适用于连续环境的近似基于模型的屏蔽 (AMBS) 框架,并提出了两种新的惩罚技术来改进策略梯度的稳定收敛性。
Feb, 2024
研究探讨如何在强化学习中实现安全探索,提出了一种基于 latent shielding 的算法,能有效减少安全违规率并提高最终代理的收敛速度和质量。
Apr, 2023
提出了一种多智能体模型预测屏蔽算法 (MAMPS),用于处理复杂的多智能体机器人任务,通过备选策略来保证该问题的安全性,并在多智能体仿真环境中进行了验证。
Oct, 2019
该论文提出了一种基于模型的动态屏蔽(MBDS)方法来支持多智能体强化学习算法设计,同时在强化学习和部署阶段实现形式化安全性保证。该算法合成分布式屏蔽,可以在与每个 MARL 代理并行运行的情况下监视和纠正不安全行为,从而实现对多智能体复杂环境的有效监控,并具有强有力的安全性保证。
研究了强化学习中的安全探索问题,提出了一种叫做 shield 的方法来确保代理人只进行安全的操作,并深度结合使用 state-of-the-art deep RL 来提高 RL 代理人的性能,实验证明这种方法可以提高收敛速度和最终表现,并可用于引导 state-of-the-art RL 代理人。
Apr, 2022
在训练过程中,通过使用一种名为 ADVICE 的自适应屏蔽技术,可以识别出状态 - 动作对的安全和不安全特征,从而保护强化学习代理避免执行可能产生危险结果的动作,有效降低安全违规风险。
May, 2024
本研究提出两种安全性保障方法,并对多智能体强化学习进行了实验验证。结果表明,这两种方法可以在不损害智能体学习质量的情况下保证其安全,其中,基于因式分解的屏蔽方法在智能体数量上更具可扩展性。
Jan, 2021
通过整合形式验证和概率验证工具,将输入域划分为安全和不安全区域,通过聚类和符号表示过程对不安全区域进行压缩,从而在(潜在的)不安全区域高效地临时激活防护,显著减少运行时开销并保持形式安全保证。
Jun, 2024
通过使用所谓的野蛮方法,本文提出了构建障碍盾牌的方法,通过系统地选择真实转移函数的样本,以提取基于分区的双人安全游戏的近似有限表示。尽管难以达到严格的安全保证,但我们通过原型实现和 UPPAAL STRATEGO 实验证明了强大的统计安全保证,进一步研究了障碍盾牌的合成对控制器学习前和后应用的影响,并在一系列案例研究中应用了我们的技术。
Aug, 2023
该论文介绍了一种基于时间逻辑表达的安全性要求,用反应系统来指导强化学习算法的政策优化过程,保证学习和执行阶段的安全性。实验表明该方法在多种场景下具有通用性。
Aug, 2017