用深度强化学习对美式看跌期权进行避险
本研究使用深度强化学习技术, 对金融工程中的期权定价和最优期权行权问题进行了优化停止策略的评估。比较了三种主流深度强化学习算法的优化效果, 结果表明C51算法在实际情况下有效性更高, 比自然基准策略实现了8%的超额回报;同时, IQN算法在理论环境下表现更好。
May, 2021
深度强化学习方法在算法性商品交易中的有效性进行了研究,提出了一种新的离散化方案,通过优化交易成本和风险敏感的交易代理来提高DRL模型的性能,并且该模型在天然气期货交易中表现出较高的夏普比率及一定的风险自定义能力。
Aug, 2023
该论文概述了最近在定价和对冲金融工具方面强化学习的最新进展,重点详细解释了Halperin(2017)引入的Q-Learning Black Scholes方法,该方法将传统的Black and Scholes(1973)模型与新颖的人工智能算法相结合,实现了完全无模型、数据驱动的期权定价和对冲。该论文还探讨了该算法在不同状态变量和欧式看跌期权场景下的表现。结果显示,该模型在不同波动率水平和对冲频率下是准确的估计器。此外,该方法在各种看跌期权价内外都表现出稳健的性能。最后,该算法考虑了比例交易成本,表明不同状态变量的统计特性对盈亏产生了不同的影响。
Oct, 2023
将深度强化学习代理与Black-Litterman模型相结合,能使代理学习到资产回报之间的动态相关性,并基于这种相关性实施高效的多头/空头策略。在由真实世界美国股票市场数据构建的投资组合上进行的实证结果表明,我们的深度强化学习代理在累积回报方面至少比各种对比投资组合策略和其他深度强化学习框架提高了42%。在单位风险回报方面,我们的深度强化学习代理在各种对比投资组合策略和其他机器学习框架基础上明显更优。
Feb, 2024
本研究论文探讨了深度强化学习(DRL)在无市场偏见的资产类组合优化中的应用,将行业级方法与量化金融相结合。本文通过我们强大的框架实现了这种融合,不仅融合了先进的DRL算法与现代计算技术,还注重严格的统计分析、软件工程和法规合规性。据我们所知,这是第一项将金融强化学习与机器人学和数学物理领域的模拟到真实方法相结合的研究,从而为我们的框架和论证带来了独特的视角。我们的研究通过引入AlphaOptimizerNet,一个专有的强化学习代理(和相应的库),达到高风险回报优化的目的,并且适用于各种资产类别和现实约束条件。这些初步结果突显了我们框架的实际有效性。随着金融行业越来越倾向于先进的算法解决方案,我们的研究将理论进展与现实适用性相结合,为这个技术驱动的未来提供了一个确保安全和稳健标准的模板。
Feb, 2024
该研究通过深度强化学习(DRL)对美式期权进行对冲,调查了超参数对对冲表现的影响,并强调避免特定组合的重要性。另外,该研究引入了一种新方法,在每周时间间隔内使用新的校准随机波动率模型训练DRL代理,结果显示相较于仅在交易日期训练的代理,使用每周市场数据重新训练的DRL代理性能更好。此外,论文还证明在交易成本为1%和3%时,单次训练和每周训练的DRL代理都优于Black-Scholes Delta方法,这对实践具有重要意义。
May, 2024
通过分析交易行为,研究发现每个深度强化学习算法在金融应用中表现出独特的交易模式和策略,其中A2C是累计回报方面的最佳表现者。同时,PPO和SAC以有限的股票进行重要的交易,而DDPG和TD3采取了更加平衡的方法。此外,SAC和PPO往往持有较短时间的头寸,而DDPG、A2C和TD3则倾向于保持长时间不动。
Jun, 2024
本文针对传统分布式强化学习在极端量估计中的不准确性问题,提出了EXtreme DRL(EX-DRL)方法。通过采用广义帕累托分布来建模损失分布的尾部,EX-DRL显著提高了对极端量的预测精度,优化了金融风险管理中的风险指标计算和可靠性。实验结果表明,EX-DRL超越了现有的基于分位数回归的模型。
Aug, 2024
本文针对传统分布强化学习在极端量化预测中的不足,提出EX-DRL方法,通过使用广义帕累托分布来建模损失分布的尾部,从而提高极端量化的预测精度。研究表明,EX-DRL在风险管理中相较于已有的方法提供了更为准确的极端量化估计,显著提升了复杂金融风险管理的计算和可靠性。
Aug, 2024