使用强化学习的最优执行
在这篇论文中,我们介绍了一种多智能体强化学习方法来同时执行多个交易订单,并通过可学习的多轮通信协议改善合作效果。通过使用模型无关的强化学习方法,我们提供了一种解决交易执行问题的数据驱动方法。实验证明,我们的方法在两个真实市场的数据上表现出优越的性能和显著改善的合作效果。
Jul, 2023
优化交易执行是以最低交易成本在给定时间内出售(或购买)一定数量的资产。本研究主要针对优化交易执行中的过拟合问题进行全面研究,提出了离线强化学习模型(ORDC)来模拟最优交易执行,并通过学习紧凑的上下文表示来有效缓解过拟合问题。实验结果表明,该方法在历史限价挂单簿数据模拟器上取得了更好的性能。
May, 2023
采用 Deep Q-Learning 算法,基于当前的交易信号和订单簿信息预测股票交易的最佳行动方案,并在九种不同的股票上进行了实验,在大多数股票上优于标准基准方法,且表现以超额收益率、超额率和收益 - 损失比为优。
Dec, 2018
应用深度学习和强化学习结合,利用订单流量失衡进行多时间段预测收益的研究,为五种金融工具提供交易信号,并通过回测模拟和前期测试在零售交易平台验证了模型的潜力,但还需要进一步修改以应对零售交易成本、滑点和点差的波动。
Oct, 2023
本研究使用深度强化学习算法 ——PPO、SAC、GAIL,针对三个加密货币市场的交易策略设计问题,通过价格数据和技术指标,实现了基于 Gym 仿真环境的交易策略,测试结果表明该方法有望帮助投资者在市场中获得更高的收益率,且最高收益率为 4850 美元。同时,我们还探讨了在环境设计中特定超参数的使用,可以用于调整所生成策略中的风险。
Jan, 2022
在这项研究中,我们提出了一种用于算法交易的强化学习(RL)算法,该算法基于来自学习预测模型的信号并解决了在薄交易金融市场和不同资产市场中交易策略必须考虑更难改变的持仓的长期影响这些挑战。我们在马来西亚证券交易所 20 多年的股票数据上测试了我们的算法。
Jul, 2023
这项研究开创性地应用了多智能体强化学习(MA RL)框架与最先进的异步优势演员 - 评论家(A3C)算法,结果表明此方法可以更广泛和更快地探索不同的货币对,显著提高交易收益。此外,代理可以在较短时间内学习到更有利可图的交易策略。
May, 2024
探索强化学习作为一种候选机器学习技术,结合市场微观结构元素,以增强现有的分析解决方案,实现优化交易执行。利用标准 Almgren-Chriss 模型作为基本模型,在实时执行过程中,通过训练学习代理人根据市场的传播和量动态来修改交易量轨迹,从而提高交易的成本效益, 相比基本模型,我们在南非股票市场的样本中,平均实现剩余成本比提高了 10.3%。
Mar, 2014
该研究提出了一种基于增强学习和策略优化的框架,通过引入一个策略蒸馏方法来优化订单执行的普遍交易策略,以更好地指导基于模型无关的方法实现有效的订单执行。
Jan, 2021
本研究旨在通过开发基于强化学习的自动化交易系统来应对加密货币市场中不断演进的挑战。通过使用因果分析增强强化学习代理的能力,我们设计了 CausalReinforceNet 框架作为交易系统的基础架构,利用贝叶斯网络在特征工程过程中识别对加密货币价格变动产生因果关系的相关特征,并通过动态贝叶斯网络引入概率性价格方向信号来增强强化学习代理的决策能力。该框架在盈利能力方面显著超过了买入持有基准策略,并为 Binance Coin 和 Ethereum 生成了可观的投资回报。
Oct, 2023