OpenAI Gym
该论文介绍了 ns3-gym 框架的设计决策以及其在网络模拟器 ns-3 中的应用,旨在将机器学习领域的强化学习工具(如 OpenAI Gym)与网络研究相结合,并提供一个便于扩展的开源软件包。
Oct, 2018
本研究介绍了一个基于 Robot Operating System (ROS) 和 Gazebo simulator 的 OpenAI Gym 扩展版本,讨论了所提出的软件架构和使用 Q-Learning 和 Sarsa 两种强化学习算法所获得的结果,并提供了一个基准系统,用于在相同的虚拟条件下比较不同的技术和算法。
Aug, 2016
通过 EduGym 这一套教育性的强化学习环境和配套的交互式笔记本,该研究旨在帮助学生更好地理解强化学习的概念和实践,通过提供特定挑战方面的环境和解决方案,从而提高教学效果。
Nov, 2023
本研究介绍 OpenGridGym,一个基于 Python 的开源模拟软件包,能够将分布式市场模拟与最先进的人工智能决策算法进行无缝集成。该工具通过多个案例展示了其价值,并提供了多个模块用于模拟电力网格,市场机制和环境等。旨在帮助研究人员解决配电市场的关键设计和操作问题。
Mar, 2022
编写特定量子硬件的量子电路是具有挑战性的任务,并且当前的量子计算机存在严重的硬件限制。为了充分利用有限的资源,应该优化编译过程。为了改进当前的方法,可以使用强化学习(RL),这是一种让代理与环境交互以学习复杂策略以达到特定目标的技术。在这项工作中,我们介绍了 qgym,这是一个从 OpenAI Gym 派生的软件框架,以及专门针对量子编译的环境。qgym 的目标是通过抽象与两个领域都无关的过程部分,将人工智能(AI)的研究领域与量子编译连接起来。它可用于在高度可定制的环境中训练和基准测试 RL 代理和算法。
Aug, 2023
这篇论文介绍了一个名为 Safety-Gymnasium 的环境套件和一个名为 Safe Policy Optimization 的算法库,其中包含了 16 种最先进的安全强化学习算法,旨在促进安全性能的评估和比较,并推动强化学习在更安全、更可靠和负责任的实际应用中的发展。
Oct, 2023
本文介绍了 panda-gym,它是集成了 OpenAI Gym 的 Franka Emika Panda 机器人的强化学习(RL)环境。它包括五个任务:到达,推动,滑动,拾取和堆叠。它们都遵循多目标 RL 框架,允许使用面向目标的 RL 算法。 panda-gym 是开源的,并且基于最新的无模型离策略算法。
Jun, 2021
lilGym 是一个基于自然语言生成环境的强化学习基准,通过在每个可能世界状态上注释所有语句以确切计算奖励,创建了数千个不同难度的马尔可夫决策过程,并使用不同模型和学习体系结构实验和分析表明,lilGym 是一个具有挑战性的开放问题。
Nov, 2022
这篇论文介绍了如何将通用游戏人工智能(GVGAI)与 OpenAI Gym 环境相结合,用于测试并比较几种深度强化学习算法在各种 GVGAI 游戏上的表现,为评估游戏的相对难度提供了第一手数据。
Jun, 2018
本文介绍了 ArchGym,一个连接多种搜索算法和架构模拟器的易于扩展的开放源码的 gym。研究结果表明,使用 ML 算法在设计定制 SoC 等领域无论采用哪种 ML 方法,只要调整好超参数,就能达到用户定义的目标规范,无明显差异,并将这种情况称为超参数彩票。
Jun, 2023