TorchRL:一个基于 PyTorch 的数据驱动决策库
OpenRL 是一个先进的强化学习框架,可以适应各种任务,从单智能体挑战到复杂的多智能体系统。它与自然语言处理(NLP)集成,使研究人员能够有效地处理强化学习训练和以语言为中心的任务的组合。通过借助 PyTorch 的功能,OpenRL 展示了模块化和以用户为中心的方法。它提供了一个简化用户体验的通用接口,适用于初学者,同时保持了专家所需的灵活性,以促进创新和算法开发。这种平衡增强了框架的实用性、适应性和可扩展性,树立了强化学习研究的新标准。
Dec, 2023
通过采用自上而下的分层控制算法,对 RL 组件进行可组合的分布式处理,RLlib 提供可扩展的软件基元,从而将并行性和资源需求封装在短暂的计算任务中,实现高性能、可扩展性和大量代码重用的广泛算法的实现。
Dec, 2017
本论文介绍了 TorchCraft 库,该库可以使深度学习研究在 Real-Time Strategy (RTS) 游戏中起到更大的作用,并将 RTS 游戏作为人工智能研究的基准进行了论证,同时还描述了 TorchCraft 的设计和组成部分。
Nov, 2016
此篇论文介绍了一种名为 CoRL 的强化学习环境库,它利用模块化、可组合和超级可配置的设计思想,允许对观测、奖励和终止条件进行细粒度的控制,并可快速实现多个模拟环境的集成,从而实现了代理的快速实现和模拟场景从低保真度向高保真度迁移的能力。
Mar, 2023
简介:本文介绍了 rlpyt,该代码库通过单一存储库实现了所有深度强化学习算法,包括深度 Q-learning、策略梯度和 Q-value 策略梯度模型,使用 PyTorch 实现模块化。
Sep, 2019
我们引入了 RRLS(Robust Reinforcement Learning Suite),这是一款基于 Mujoco 环境的基准套件,为训练和评估提供了六个连续控制任务,旨在标准化强化学习任务,促进可重现和可比较的实验,并为最新的最先进贡献提供使用实例。
Jun, 2024
本文介绍了一种名为 FinRL 的开源框架,它利用深度强化学习算法实现智能交易,精细调整了当前最先进的 DRL 算法和通用奖励函数,并提供了多个精细化的教程,方便用户进行自定义操作。
Nov, 2021
RLLTE 是一个长期演进、极其模块化和开源的强化学习(RL)研究和应用框架,它通过提供大量组件来加速算法开发和演化,并构建了一个完整且丰富的生态系统,包括模型训练、评估、部署、基准测试平台和大型语言模型(LLM)辅助驾驶器。RLLTE 有望为 RL 工程实践制定标准,并对产业和学术界产生高度刺激。
Sep, 2023
本研究介绍了一个名为 FinRL 的 DRL 库,该库帮助初学者接触量化金融,开发自己的股票交易策略,并包括各种股票市场的模拟环境和交易代理培训,帮助用户轻松进行回测分析和比较。FinRL 库以其完整性,易于使用的教程和可重现性而受到好评,使用者可以使用深度强化学习和神经网络来训练交易代理,并包括各种重要的交易限制条件。
Nov, 2020
本文介绍了 d3rlpy,这是一个针对 Python 的开源深度强化学习库,其支持一组离线深度强化学习算法以及通过一个完全记录的即插即用的 API 进行的离线策略算法。为解决再现性问题,我们使用 D4RL 和 Atari 2600 数据集进行了大规模基准测试,以确保实现质量,并提供了实验脚本和完整的结果表格。d3rlpy 源代码可以在 GitHub 上找到: https://github.com/takuseno/d3rlpy。
Nov, 2021