SDGym: 使用系统动力学模型的低代码强化学习环境
我们介绍了 controlgym,这是一个包含 36 个安全关键的工业控制设置和 10 个基于无穷维偏微分方程的控制问题的库。我们将 controlgym 集成在 OpenAI Gym/Gymnasium (Gym) 框架中,允许直接应用标准的强化学习算法,如 stable-baselines3。此项目旨在为学习动态和控制(L4DC)社区提供服务,探索关键问题:学习控制策略的强化学习算法的收敛性;基于学习的控制器的稳定性和鲁棒性问题;以及强化学习算法在高维度和潜在无穷维度系统上的可扩展性。我们在 https URL 上开源了 controlgym 项目。
Nov, 2023
通过 EduGym 这一套教育性的强化学习环境和配套的交互式笔记本,该研究旨在帮助学生更好地理解强化学习的概念和实践,通过提供特定挑战方面的环境和解决方案,从而提高教学效果。
Nov, 2023
通过 Scilab-RL 软件框架,研究人员能够有效进行认知建模和强化学习方面的研究,特别注重基于目标的强化学习和实验可视化,最大限度地提高研究产出。
Jan, 2024
本文研究了基于智能体模型的强化学习环境的好处。通过对比微分方程和智能体模型基础的流行病 SIR 环境的控制,数值模拟结果表明使用智能体模型的 SIR 模型固有噪声不仅可以提高平均奖励,还能让 RL 智能体在更广范围的流行病参数范围内进行泛化。
Mar, 2022
PDDLGym 是一个从 PDDL 域和问题中自动构建 OpenAI Gym 环境的框架,它是一个特别适合于关系强化学习和关系序列决策研究的框架,也可用作快速构建众多、多样化基准测试的通用框架。
Feb, 2020
本文旨在通过应用增强学习和深度增强学习(RL/DRL)来使网络网络运营(CyOps)中的自主智能体成为可能,并且通过提出的一个名为 Cyber Gym for Intelligent Learning(CyGIL)的统一训练环境,尤其是最近发展出的一种在仿真环境下训练智能体的解决方案,该方案旨在在实际网络环境中实现从仿真到现实的自主智能体应用。
Apr, 2023
本文旨在提供用于对话模型开发与评估的一组具有挑战性的模拟环境,其中包括常用的参数算法和非参数算法,并使用公共 PyDial 工具包实现了这些环境和策略模型,以建立一个实验测试平台并促进可重现性的实验。
Nov, 2017
pyRDDLGym 是一个 Python 框架,可以通过 RDDL 描述自动生成 OpenAI Gym 的环境,支持模型知识以及多个实体和不同配置。它可以帮助强化学习领域快速开发新的基准,且便于基于交互式学习实现混合方法的研究。
Nov, 2022
通过开发和优化计算网络中的任务卸载策略,引入了一个可自定义的模拟环境以支持深度强化学习代理,并展示了深度强化学习方法在分布式计算环境中显著提升任务卸载策略的潜力,从而弥合了理论强化学习模型和实际应用之间的差距。
Mar, 2024