Gym-preCICE:用于主动流控制的强化学习环境
介绍 PettingZoo 动物园库及附带的代理环境循环(“AEC”)游戏模型,PettingZoo 是多样的多代理环境的库,有一个通用的 Python API,用于加速多智能体强化学习(“MARL”)研究。
Sep, 2020
本文介绍了一种基于Bullet物理引擎的开源多旋翼OpenAI Gym环境,并通过多个实验展示了其在控制和强化学习方面的应用,旨在鼓励将控制理论和机器学习相结合的未来研究。
Mar, 2021
本文介绍了panda-gym,它是集成了OpenAI Gym的Franka Emika Panda机器人的强化学习(RL)环境。它包括五个任务:到达,推动,滑动,拾取和堆叠。它们都遵循多目标RL框架,允许使用面向目标的RL算法。 panda-gym是开源的,并且基于最新的无模型离策略算法。
Jun, 2021
提出了一个名为 safe-control-gym 的新开源基准套件,支持模型和数据驱动控制技术,在 3 个动态系统和 2 个控制任务上提供实现,并建议将 OpenAI 的 Gym API 扩展为支持符号动态和限制条件的查询,并演示如何使用 safe-control-gym 来量化比较传统控制、基于学习的控制和强化学习的多种方法的控制性能、数据效率和安全性。
Sep, 2021
本论文提出了CaiRL环境工具包作为一种有效、兼容性良好、可持续性更高的训练学习代理的替代方法,并提出了更高效环境模拟的方法,以解决当前强化学习工具包效率低下的问题。
Oct, 2022
我们介绍了controlgym,这是一个包含36个安全关键的工业控制设置和10个基于无穷维偏微分方程的控制问题的库。我们将controlgym集成在OpenAI Gym/Gymnasium (Gym)框架中,允许直接应用标准的强化学习算法,如stable-baselines3。此项目旨在为学习动态和控制(L4DC)社区提供服务,探索关键问题:学习控制策略的强化学习算法的收敛性;基于学习的控制器的稳定性和鲁棒性问题;以及强化学习算法在高维度和潜在无穷维度系统上的可扩展性。我们在https URL上开源了controlgym项目。
Nov, 2023
近期增加在强化学习实际应用方面的研究,依赖于能够在规模上准确模拟系统。然而,液体动力学系统等领域展示了复杂的动态现象,难以以高积分速率进行模拟,限制了现代深度强化学习算法在昂贵或安全关键硬件上的直接应用。在本研究中,我们引入了“Box o Flows”,这是一个新颖的台面实验控制系统,用于系统地评估动态实际环境中的强化学习算法。我们描述了Box o Flows的关键组成部分,并通过一系列实验演示了最新的无模型强化学习算法如何通过简单的奖励规范来合成各种复杂行为。此外,我们通过重用过去的经验,探讨了离线强化学习在数据高效假设测试中的作用。我们相信,从这个初步研究中获得的见解以及像Box o Flows这样的系统的可用性,将支持开发可普遍应用于复杂动态系统的系统化强化学习算法。附加材料和实验视频可在以下链接找到:[URL]
Feb, 2024
深度强化学习在闭环流控问题中应用模拟环境进行优化,通过模型和流模拟样本相互交替训练,有效减少流控应用中的计算时间,尤其对于复杂流模拟有着潜在的巨大节约。
Feb, 2024
基于学习的偏微分方程(PDE)控制的学习环境和强化学习算法,通过引入三个基础性的PDE问题,降低了数据驱动控制领域中学习PDE控制的门槛,并在稳定性方面取得了进展,虽然代价较高。
May, 2024
综述并评估了九种常用的模拟引擎和框架在强化学习研究中的应用情况,重点讨论了选择和使用物理引擎时的挑战,并强调了MuJoCo作为领先框架的优势和灵活性,以及Unity使用的易用性和可伸缩性问题。该研究呼吁进一步发展以改善模拟引擎的可用性和性能,并强调了在强化学习研究中透明性和可复现性的重要性。
Jul, 2024