为了优化交易者的预期利润最大化的目标,本文使用强化学习方法,通过数据驱动的方式估计一个最优的买卖价差报价策略,并进行了广泛的结果分析来验证训练代理的行为合理性。
Jun, 2024
本研究提出了一个通用建模框架,综合了文献中提出的各种建模方法,证明了最优市场制造策略的存在和特征,并针对多资产市场制造将模型框架扩展至通用的闭式近似方法。
May, 2016
本文提出了一种高保真度的极限订单簿交易市场模拟,并使用其设计了一个使用时序差分强化学习方法的市场制造代理,为此我们使用线性组合的 “瓷砖编码” 作为价值函数逼近器,并设计了一个自定义的奖励函数,控制库存风险。通过显示我们的代理优于简单基准策略和文献中的最新在线学习方法,我们展示了我们方法的有效性。
Apr, 2018
本研究探讨了市场制造商在股票交易中所面临的复杂优化问题,通过建立随机控制问题的模型,研究了制造商的收益与风险的平衡,得到了一组线性常微分方程的解,并基于对最优行情的谱特性提出了一种简单的近似方法。
May, 2011
本论文提出了一种基于强化学习的市场做市策略,使用卷积神经网络和注意力机制从限价单簿中提取特征,获得了良好的应用效果。
May, 2023
本研究证明对抗强化学习 (ARL) 可以用于产生适应性强、抗干扰的做市商代理。我们将 Avellaneda 和 Stoikov [2008] 的单一代理模型转化为做市商和对手之间的离散时间零和游戏,实验证明 ARL 方法的性能改善显著,收敛到纳什均衡。
Mar, 2020
通过多智能体模拟方法探索复杂适应性金融交易环境是量化金融领域中创新的方法。我们设计了一种基于小规模元启发式方法的多智能体模拟方法,旨在代表澳大利亚政府债券交易的不透明双边市场,捕捉银行之间的双边交易特性,也称为 “场外交易”,通常发生在 “做市商” 之间。我们探讨市场刚性对市场结构的影响,并考虑市场设计中的稳定性因素,这扩展了对复杂金融交易环境的讨论,提供了对其动态和影响的更深入的理解。
May, 2024
本研究采用深度多智能体强化学习方法在随机过程空间中搜索连续时间扩散模型来适应市场价格,实现本研究所解决的问题,结果表明:我们能够学习局部波动率,并且在波动率过程中学习路径依赖性以最小化百慕大期权的价格。
Mar, 2022
该研究通过提出一种名为神经网络嵌入竞标的新的竞标表示方法,利用多维能源市场竞价最大化可盈利性,并通过实验验证了该方法相比基准模型获得了 18% 更高的利润,并且可达到最优市场竞标者利润的 78%。
Nov, 2023
构建金融交易仿真器的能力,包括重现限价委托簿的动态,能够对许多反事实情景提供洞见,如闪崩、追加保证金或宏观经济前景的变化。近年来,已开发了能够重现交易所许多特征的基于代理的模型,由一组简化事实和统计数据总结。然而,将仿真器校准到特定的交易期间仍然是一个待解决的挑战。在本文中,我们借鉴深度学习的最新进展,特别是使用神经密度估计器和嵌入网络,提出了一种新的市场仿真器校准方法。我们证明了我们的方法能够正确识别高概率参数集,无论是应用于合成数据还是历史数据,而无需依赖手动选择或加权的简化事实集合。