基于模型的极限订单簿交易 gym 环境
通过 EduGym 这一套教育性的强化学习环境和配套的交互式笔记本,该研究旨在帮助学生更好地理解强化学习的概念和实践,通过提供特定挑战方面的环境和解决方案,从而提高教学效果。
Nov, 2023
通过引入系统动态方法(SD)作为一种补充方法,利用 SDGym 生成基于 SD 模拟模型的定制强化学习(RL)环境,验证了通过预先存在的 SD 模型和少量的配置代码可以生成良好指定、丰富的 RL 环境。
Oct, 2023
该研究提供了一个基于 Open AI Gym 模板的高度可定制和开源的 RL 环境,ChemGymRL,以支持在化学发现中训练 RL 代理,通过使用一系列互连的虚拟化学试验台。研究介绍了这些试验台,并在其中训练了一组标准 RL 算法,最后提供了多个标准 RL 方法的性能讨论和比较以及未来工作的发展方向列表作为 ChemGymRL 的远景。
May, 2023
我们介绍了 controlgym,这是一个包含 36 个安全关键的工业控制设置和 10 个基于无穷维偏微分方程的控制问题的库。我们将 controlgym 集成在 OpenAI Gym/Gymnasium (Gym) 框架中,允许直接应用标准的强化学习算法,如 stable-baselines3。此项目旨在为学习动态和控制(L4DC)社区提供服务,探索关键问题:学习控制策略的强化学习算法的收敛性;基于学习的控制器的稳定性和鲁棒性问题;以及强化学习算法在高维度和潜在无穷维度系统上的可扩展性。我们在 https URL 上开源了 controlgym 项目。
Nov, 2023
优化交易执行是以最低交易成本在给定时间内出售(或购买)一定数量的资产。本研究主要针对优化交易执行中的过拟合问题进行全面研究,提出了离线强化学习模型(ORDC)来模拟最优交易执行,并通过学习紧凑的上下文表示来有效缓解过拟合问题。实验结果表明,该方法在历史限价挂单簿数据模拟器上取得了更好的性能。
May, 2023
在这篇论文中,我们介绍了一种高效轻量级的强化学习查询优化环境 JoinGym,该环境可用于测试强化学习算法在关于查询的组合优化问题中的泛化能力,并且我们提供了在实际数据管理问题上测试方法的离线跟踪,同时提供了从 IMDB 数据集生成的 3300 个 SQL 查询的所有可能的连接跟踪。
Jul, 2023
应用深度学习和强化学习结合,利用订单流量失衡进行多时间段预测收益的研究,为五种金融工具提供交易信号,并通过回测模拟和前期测试在零售交易平台验证了模型的潜力,但还需要进一步修改以应对零售交易成本、滑点和点差的波动。
Oct, 2023
编写特定量子硬件的量子电路是具有挑战性的任务,并且当前的量子计算机存在严重的硬件限制。为了充分利用有限的资源,应该优化编译过程。为了改进当前的方法,可以使用强化学习(RL),这是一种让代理与环境交互以学习复杂策略以达到特定目标的技术。在这项工作中,我们介绍了 qgym,这是一个从 OpenAI Gym 派生的软件框架,以及专门针对量子编译的环境。qgym 的目标是通过抽象与两个领域都无关的过程部分,将人工智能(AI)的研究领域与量子编译连接起来。它可用于在高度可定制的环境中训练和基准测试 RL 代理和算法。
Aug, 2023
本研究探讨了 IRL 是否能从金融随机环境(LOB)中的代理中推断出奖励,并使用先前的线性和高斯过程回归器以及自己的方法通过贝叶斯神经网络(BNN)来模拟其潜在奖励函数,说明非线性奖励函数产生的复杂行为可以通过推断来推断。
Jun, 2019