ZeroSwap:基于数据驱动的DeFi最佳市场做市
该论文提出了一种模拟现实世界数据市场的模型,研究了买家之间存在的负向外部性问题,进而探讨了不同干预市场方式下的 Nash 均衡状态及社会福利最优的情况,并给出了一种适用于未知估值的在线学习算法。
Feb, 2023
根据实验结果,在四个真实市场数据集上进行的综合实验表明,基于模拟市场制造者的强化学习框架(IMM)在多个金融指标方面优于当前基于强化学习的市场制造策略,其模型组成的有效性得到了验证。
Aug, 2023
提出了一种度量市场差异的指标,并通过优化该指标引入了基于算法交易的市场模拟(ATMS),通过强化学习中的随机策略建模来考虑交易的时序特性,通过实验证明了该指标的有效性,并展示了ATMS相比基于条件Wasserstein生成对抗网络(cWGAN)的方法生成更接近真实数据的市场数据,同时产生更平衡的买卖交易量,减少了买卖交易不均衡的偏差。
Sep, 2023
该研究论文探讨了将强化学习应用于统计套利策略中的高频交易场景,通过利用强化学习的自适应学习能力,发现其可以揭示传统方法可能忽略的模式并设计交易策略,同时解决在金融市场中这一非稳态环境中应用强化学习所面临的挑战,并研究缓解相关风险的方法。通过广泛的模拟和回测,研究结果表明,强化学习不仅提升了交易策略的适应性,而且显示了改善盈利指标和风险调整回报的潜力,从而将其定位为下一代基于高频交易的统计套利的关键工具,为该领域的研究人员和从业者提供了洞察。
Sep, 2023
通过一次性训练全球股票池中的可定制股票池,提出了具有可屏蔽股票表示的增强学习框架EarnMore,通过掩盖目标池外的股票的表示、学习有意义的股票表示和重新加权机制,在8个美国股票市场的子集股票池上的大量实验证明,EarnMore在利润上的6个常用金融指标上显著优于14种最新算法,达到了超过40%的提升。
Nov, 2023
我们研究了Merton的预期效用最大化问题,该问题发生在一个不完全市场中,该市场除股票价格过程外还具有因子过程,其中所有模型原始数据都是未知的。我们采用强化学习方法直接学习最优的投资组合策略,通过对未知市场进行探索,而无需尝试估计模型参数。基于Wang等人于2020年提出的一般连续时间强化学习的熵正则化框架,我们提出了一种基于探索的递归加权方案,该方案通过过去累积的探索量内生地减少当前的探索奖励。这种递归正则化恢复了高斯探索的最优性。然而,与现有结果相反,由于对对冲和探索的相互需求,最优高斯策略通常是有偏的。我们对结果误差进行了渐近分析,以展示探索水平如何影响学习到的策略。此外,我们建立了一个策略改进定理,并设计了几种强化学习算法来学习Merton的最优策略。最后,我们在随机波动环境下进行了模拟和实证研究,以展示强化学习算法在效率和鲁棒性方面相对于传统的插件方法的优点。
Dec, 2023
通过多智能体模拟方法探索复杂适应性金融交易环境是量化金融领域中创新的方法。我们设计了一种基于小规模元启发式方法的多智能体模拟方法,旨在代表澳大利亚政府债券交易的不透明双边市场,捕捉银行之间的双边交易特性,也称为“场外交易”,通常发生在“做市商”之间。我们探讨市场刚性对市场结构的影响,并考虑市场设计中的稳定性因素,这扩展了对复杂金融交易环境的讨论,提供了对其动态和影响的更深入的理解。
May, 2024
通过在在线学习框架中的交易者之间进行经纪,我们研究了经纪的关键问题。我们探索了经纪机构如何最大限度地提高交易量,并分析了对于交易者来说最优的交易策略和遗憾率。
May, 2024
我们研究了在经纪人之间的在线学习问题中上下文信息的作用。我们假设交易资产的市场价值是代表经纪人可用的上下文信息的$d$维向量的未知线性函数。我们通过与交易利润相关的遗憾来评估学习算法的性能,并提供了相应的遗憾界限。
May, 2024