深度对冲
基于深度学习的对冲框架是一种在不完全市场中进行衍生品对冲的方法。与传统数学金融框架不同,深度对冲的优势在于其能够处理各种真实市场条件,如市场摩擦等。本研究提出一种名为对抗深度对冲的新框架,通过对抗学习训练基础资产模型,实现了学习鲁棒的对冲策略而不需要显式地对基础资产过程建模。通过数值实验,我们证明了该方法在各种真实市场数据下具有竞争性能。
Jul, 2023
深度强化学习方法在商品交易中的有效性研究表明,在对 2017 年至 2022 年间的次月天然气期货进行回测时,该模型产生的夏普比率平均比买入并持有基准高 83%,风险敏感度因子可用于调整风险承受能力。基于行动者的策略梯度算法明显优于基于演员 - 评论家的算法,基于卷积神经网络的模型略好于基于 LSTM 的模型。
Jun, 2023
深度对冲是一种利用深度学习来逼近最优对冲策略的方法,本研究提出了一种在深度对冲中使用人工市场模拟的新方法,可达到与传统方法几乎相同的效果,且无需使用数学金融模型。
Apr, 2024
本文提出了一种名为神经渐进对冲的框架,该框架在强化学习策略执行的在线阶段利用随机规划来确保对约束和风险为基础的目标的可行性,特别适用于序列资源分配问题等一些无法可扩展地强制执行常见资源约束条件的问题,实验证明该框架比起深度强化学习和其他基线方法更好地适应非平稳状态分布和约束条件,并具有易于实现和解释政策的优点。
Feb, 2022
该研究通过深度强化学习(DRL)对美式期权进行对冲,调查了超参数对对冲表现的影响,并强调避免特定组合的重要性。另外,该研究引入了一种新方法,在每周时间间隔内使用新的校准随机波动率模型训练 DRL 代理,结果显示相较于仅在交易日期训练的代理,使用每周市场数据重新训练的 DRL 代理性能更好。此外,论文还证明在交易成本为 1%和 3%时,单次训练和每周训练的 DRL 代理都优于 Black-Scholes Delta 方法,这对实践具有重要意义。
May, 2024
采用深度强化学习算法设计交易策略,测试其在 50 种流动性最强的期货合约中的表现,并对商品、股票指数、固定收益和外汇市场等不同资产类别进行研究,证明该算法可以超越传统的时间序列动量策略模型,在重交易成本情况下实现正收益,且能够跟随市场趋势不改变仓位,并在调整期间进行缩减或持有。
Nov, 2019
该论文概述了最近在定价和对冲金融工具方面强化学习的最新进展,重点详细解释了 Halperin(2017)引入的 Q-Learning Black Scholes 方法,该方法将传统的 Black and Scholes(1973)模型与新颖的人工智能算法相结合,实现了完全无模型、数据驱动的期权定价和对冲。该论文还探讨了该算法在不同状态变量和欧式看跌期权场景下的表现。结果显示,该模型在不同波动率水平和对冲频率下是准确的估计器。此外,该方法在各种看跌期权价内外都表现出稳健的性能。最后,该算法考虑了比例交易成本,表明不同状态变量的统计特性对盈亏产生了不同的影响。
Oct, 2023
本文提出了一个具有 EIIE 拓扑结构、PVM、OSBL 方案和完全利用和显式奖励函数的基于深度强化学习的组合策略金融投资组合管理框架,该框架需要使用 CNN、RNN 或 LSTM,通过在加密货币市场上进行三次回测实验,与其他相比,实现了最好的投资回报。
Jun, 2017