研究探讨如何在强化学习中实现安全探索,提出了一种基于 latent shielding 的算法,能有效减少安全违规率并提高最终代理的收敛速度和质量。
Apr, 2023
通过整合形式验证和概率验证工具,将输入域划分为安全和不安全区域,通过聚类和符号表示过程对不安全区域进行压缩,从而在(潜在的)不安全区域高效地临时激活防护,显著减少运行时开销并保持形式安全保证。
Jun, 2024
研究了强化学习中的安全探索问题,提出了一种叫做 shield 的方法来确保代理人只进行安全的操作,并深度结合使用 state-of-the-art deep RL 来提高 RL 代理人的性能,实验证明这种方法可以提高收敛速度和最终表现,并可用于引导 state-of-the-art RL 代理人。
Apr, 2022
通过使用线性时态逻辑(LTL)来形式化航天器任务和安全需求,以构建奖励函数和确保概率保障的盾牌,本论文研究了自主航天器控制和 SDRL 框架下的任务定义、安全性以及奖励结构的灵活性。
Mar, 2024
在本文中,我们提出了一个算法,它能够解决深度强化学习在 Atari 游戏集上遇到的三个关键难题,包括处理不同密度和规模的奖励分布、思考长时间序列以及有效地探索,该算法超过了人类在 40 个游戏上的表现,其中包括 Montezuma's Revenge 的第一关。
May, 2018
研究开发了基于搜索的深度强化学习测试框架,用于评估深度强化学习代理的性能和安全性,其中包括利用搜索算法进行参考跟踪的安全测试和创建多样化的跟踪以评估代理的总体性能。
May, 2022
该研究提出了一个神经和符号端到端强化学习架构,能够克服当前深度学习技术的局限性,如需要非常大的数据集工作、难以实现高级认知功能和透明性欠佳等。研究者以简单的视频游戏为例,展示了这个架构的实现原型,结果表明它能够有效地学习,并通过获得一组符号规则,可将性能提高到比传统完全神经强化学习系统更好的水平。
Sep, 2016
在训练过程中,通过使用一种名为 ADVICE 的自适应屏蔽技术,可以识别出状态 - 动作对的安全和不安全特征,从而保护强化学习代理避免执行可能产生危险结果的动作,有效降低安全违规风险。
May, 2024
本文提出了一个用于 DRL 控制的机器人和自主系统的可靠性评估框架,并利用形式可靠性分析生成的验证证据,验证了其安全性。
Oct, 2022
本研究介绍了一种名为 DRLSL 的新的神经符号模型自由深度强化学习方法,将深度强化学习与符号逻辑知识驱动推理相结合,可以在现实环境下实现安全学习,以实现自主驾驶政策,并可在训练和测试阶段成功避免不安全的行为,且比传统的深度强化学习方法更具有一般性和更快的收敛速度。
Jul, 2023