本文探讨了深度强化学习在优化股票交易策略方面的潜在性,并证明了所提出的深度强化学习方法在夏普比率和累积回报方面优于道琼斯工业平均指数和传统的最小方差组合策略。
Nov, 2018
深度强化学习方法在算法性商品交易中的有效性进行了研究,提出了一种新的离散化方案,通过优化交易成本和风险敏感的交易代理来提高 DRL 模型的性能,并且该模型在天然气期货交易中表现出较高的夏普比率及一定的风险自定义能力。
Aug, 2023
在这项研究中,我们提出了一种用于算法交易的强化学习(RL)算法,该算法基于来自学习预测模型的信号并解决了在薄交易金融市场和不同资产市场中交易策略必须考虑更难改变的持仓的长期影响这些挑战。我们在马来西亚证券交易所 20 多年的股票数据上测试了我们的算法。
Jul, 2023
应用深度学习和强化学习结合,利用订单流量失衡进行多时间段预测收益的研究,为五种金融工具提供交易信号,并通过回测模拟和前期测试在零售交易平台验证了模型的潜力,但还需要进一步修改以应对零售交易成本、滑点和点差的波动。
Oct, 2023
本文探讨了强化学习在量化交易中的应用,并提出了一个基于强化学习的交易算法案例研究。结果表明,强化学习可以成为量化交易的强有力工具,有潜力胜过传统的交易算法。强化学习在量化交易中的应用代表了一个有前途的研究领域,未来的工作可以探索使用其他强化学习算法,加入额外的数据源,并测试其在不同的资产类别上的情况。我们的研究表明,利用强化学习在量化交易中具有潜力,并强调在这一领域继续研究和发展的重要性。通过开发更复杂、更有效的交易系统,我们可以提高金融市场的效率,为投资者产生更大的收益。
Apr, 2023
深度强化学习方法在商品交易中的有效性研究表明,在对 2017 年至 2022 年间的次月天然气期货进行回测时,该模型产生的夏普比率平均比买入并持有基准高 83%,风险敏感度因子可用于调整风险承受能力。基于行动者的策略梯度算法明显优于基于演员 - 评论家的算法,基于卷积神经网络的模型略好于基于 LSTM 的模型。
Jun, 2023
本研究使用深度强化学习算法 ——PPO、SAC、GAIL,针对三个加密货币市场的交易策略设计问题,通过价格数据和技术指标,实现了基于 Gym 仿真环境的交易策略,测试结果表明该方法有望帮助投资者在市场中获得更高的收益率,且最高收益率为 4850 美元。同时,我们还探讨了在环境设计中特定超参数的使用,可以用于调整所生成策略中的风险。
Jan, 2022
提出了一种以权重分配为中心的投资组合管理器,可以在后定格式市场上执行金融交易,并超过传统投资组合管理器的风险调整收益。
May, 2024
本文提出了 DeepScalper,一个使用深度强化学习框架来从事日内交易的交易系统,能够有效地区分高维度微观交易空间,对多模态市场表现进行建模,并在风险控制和最大化利润之间保持平衡。
Dec, 2021
我们提出了一种集成方法,以提高在高度随机的日内加密货币组合交易环境中通过深度强化学习算法训练的交易策略的泛化性能。我们采用了一种模型选择方法,对多个验证期进行评估,并提出了一种新颖的混合分布策略,以有效地集成所选模型。我们提供了关于细粒度测试期间样本外表现的分布视图,以证明策略在不断变化的市场条件下的稳健性,并定期重新训练模型以应对金融数据的非平稳性。与深度强化学习策略和被动投资策略的基准相比,我们提出的集成方法改善了样本外表现。